Banner-1403

[SXSW] Inteligência Artificial: as máquinas vão identificar e reproduzir emoções

Em 2013, o diretor Spike Jonze criou um cenário possível para o romance no futuro: e se, ao invés de procurar nossa cara metade, a gente pudesse criar alguém que entendesse nosso jeito e aprendesse gradualmente a conviver com a gente e nos fazer feliz? No filme, um escritor deprimido vive exatamente isso. Aos poucos, ele se apaixona por um sistema operacional movido a inteligência artificial que aprende e evolui baseado nas respostas que vai recebendo.

Essa não foi a primeira vez que o cinema se apropriou da tecnologia pra divagar sobre os possíveis desdobramentos da inteligência artificial na nossa vida. Em 2001, Steven Spielberg já havia feito um pequeno menininho-robô amar sua mãe humana. E, mais recentemente, o assunto virou tema de um episódio (talvez o melhor) da famosinha Black Mirror.

black mirror
Inteligência artificial? Isso é ~TÃO Black Mirror~

Na vida real, cientistas, engenheiros, pesquisadores e empresários que trabalham com o assunto não estão tão longe assim da ficção. Na edição do SXSW que tá rolando agora em Austin, no Texas, nossos miners assistiram palestras que trouxeram discussões muito interessantes sobre o tema

Construindo robôs que entendem emoções

Por muito tempo, a gente achou o futuro seria feito de computadores inteligentes e pequenos androids que leriam nossa mente de forma automática, mas esse conceito mudou um pouco e o que vêm por aí é muito mais humano do que imaginamos.

Esse foi o tema da palestra da Sophie Kleber, da Huge (“Designing Emotionally Intelligent Machines”). A designer de produtos reforçou que o próximo passo de avanço é criar sistemas inteligentes agora estão sendo desenhados para identificar e interagir com as nossas emoções. Desde o design à programação, a ideia é que a tecnologia vá focar cada vez mais em compreender emoções humanas para criar empatia.  É isso que ela chama de “computação afetiva”.

Parece coisa do futuro, mas não é. Hoje, o reconhecimento facial, o reconhecimento de voz e biometria já ajudam a reconhecer algumas emoções, mas outras tecnologias já estão começando a ajudar a reforçar esse panorama.

O mais curioso da palestra foi perceber que todo esse campo só se desenvolveu tanto porque as pessoas gostam de feedback. Me explico: aprender emoções é pegar feedback das pessoas e mostrar de volta uma reação ao que elas tão sentindo. Hoje, quando interagimos com alguém, esperamos uma resposta, certo? O mesmo acontece com as interações com máquinas. A própria Huge fez uma pesquisa com usuários do Google Home e do Amazon Echo, programas de controle e integração de sistemas em casa, e perceberam que existe um nível de frustração por parte das pessoas pela falta de feedback. Isso porque o comando de voz, até mesmo com a Siri, pelo iPhone, implica algum grau de envolvimento mínimo. Hoje, essas máquinas são de instruções – você fala, elas obedecem. Mas isso logo deve mudar e a tendência é que essas máquinas se transformem em máquinas de relacionamento.

palestra

Conversando com máquinas e expressões faciais

Enquanto conversamos, nossa linguagem corporal, nossas expressões, a maneira como mexemos a sobrancelha, os lábios e até o nosso tom de voz falam, por vezes, bem mais do que as palavras.  É nesse sentido que a empresa gringa Soul Machines trabalha. A missão deles é humanizar as máquinas – olha o alinhamento! – e incluir outra ponta à inteligência artificial: as expressões humanas.

Eles desenvolveram um sistema operacional para reconstruir um ser humano. Pra isso, eles remodelaram o corpo de um bebê, simulando músculos faciais, e também as emoções que ele transmite. Eles mostraram, no palco da SXSW, o bebê reagindo em tempo real com o que estava sendo falado na palestra.

Até nosso CEO, Ricardo Rodrigues, que é mestre em Inteligência Artificial pelo ITA, ficou encantado com a apresentação dos caras. Vale ver, né?

Discussão ética: até que ponto podemos ir?

Nem só de coisa boa vive a inteligência artificial e todo esse relacionamento com máquinas tem consequências. Em 2014, o Facebook intencionalmente deixou milhares de pessoas tristes, por exemplo. Para entender o impacto de notícias positivas ou negativas, o algoritmo do Facebook distribuiu publicações otimistas para um grupo, enquanto outra amostragem recebia apenas conteúdo negativo. E o efeito foi cumulativo: a gigante do Zuckerberg conseguiu validar que quem recebia mais conteúdo ruim replicava ou compartilhava o mesmo tipo de conteúdo.

E se até os algoritmos do Facebook já conseguem compreender e influenciar as emoções por parte dos usuários da rede, imagina quem trabalha exclusivamente com isso? Até que ponto essas máquinas podem influenciar de fato nossas emoções e até que ponto isso é legal?

Pela discussão que vimos por aqui, as empresas estão, sim, preocupadas com os limites da inteligência artificial.

Antes das análises de comportamento e emoção, primeiro é preciso haver um consenso entre a marca, a máquina e as pessoas. Os usuários precisam aceitar e dar permissão. Bom que, aqui na Social Miner, a gente já faz isso 😉

O legal é aproveitar a tecnologia da inteligência artificial da melhor maneira possível. Já que as máquinas vão conseguir identificar nossos sentimentos, que essa seja uma oportunidade de criar empatia e uma relação mais humana.

Comments

comments

Publicado por

Bruna Estevanin

Apaixonada por viagens, livros e tecnologia. Já trabalhou na Revista IstoÉ, no Facebook e hoje é Analista de Marketing na Social Miner.

3 comentários em “[SXSW] Inteligência Artificial: as máquinas vão identificar e reproduzir emoções”

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *