“Volto Já!”
Como todos os outros episódios do Black Mirror, o episódio intitulado “Volto Já” fala de um tema atual e que tem sido muito debatido atualmente devido aos recentes avanços da Inteligência Artificial: podem as máquinas substituir os humanos? No entanto, esse episódio em especial aborda mais profundamente essa questão, questionando: “Podem as máquinas nos substituir em nossas relações humanas de afeto?”. Nesse artigo quero compartilhar as minhas impressões, como pesquisadora em Computação Afetiva e Inteligência Artificial, sobre esse tema, usando o episódio “Volto Já” como ponto de partida. Antes de começar, uma recomendação: esse artigo contém spoilers e muitos! Assim, recomendo fortemente ao leitor que o assista antes da leitura.
No episódio “Volto Já”, Martha perde seu esposo em um acidente de carro. Era uma breve viagem e ele estaria de volta em seguida. Ele nunca voltou. Grávida de seu companheiro e arrasada, Marta entra em depressão e não consegue restabelecer sua vida. Ainda hesitante, decide então aceitar os conselhos que uma amiga viúva lhe deu no velório de seu esposo: “Eu sei de algo que pode lhe ajudar”, disse ela. Esse algo era um agente conversacional inteligente (uma espécie de avatar que interage por diálogo pelo celular) que simularia o seu esposo. A empresa contratada reconstrói a personalidade do seu esposo no agente conversacional a partir de posts dele na internet (Facebook, Instagram, e-mails, WhatsApp, Twitter) e outros materiais audiovisuais (vídeos). Tudo é usado para criar a cópia do seu esposo: sua personalidade, suas memórias, suas atitudes interpessoais. Martha fica impressionada, pois o agente conversacional fala como se realmente fosse o esposo! Primeiramente, em modo texto, após em voz. No entanto, isso não era suficiente. Ela queria mais! Faltava, nessa relação, o contato físico e as relações interpessoais afetivas. Ela resolveu contratar o serviço mais elaborado da empresa. Tratava se de um robô com formas humanas (uma espécie de androide) que seria uma cópia física exata do seu esposo, com sua personalidade, interagindo como se fosse ele. Agora ela teria seu companheiro por completo novamente. Nada faltaria. Será?
O que é mais interessante nessa discussão é, e como vou tentar mostrar nas próximas seções, que muito da tecnologia para construir essa cópia robótica de humanos já existe. Uma empresa start-up no Vale do Silício americano tem como principal produto a criação de agentes conversacionais que imitam a personalidade de humanos falecidos (“Eternime”, [S.d.]). Isso é possível porque, na área de pesquisa em Computação Afetiva, já há resultados interessantes para criar robôs, sejam eles em software (chamados de agentes inteligentes), como o agente conversacional, ou em hardware (físicos), que possuem personalidade, “entendem” e expressam emoções. Esses agentes sabem falar conosco de vários assuntos, realizar small-talking para quebrar o gelo, detectar nossas emoções de forma que nem mesmo sabemos, agir de acordo com uma personalidade, ter um repleto e amplo repertório de conhecimento. Todas características humanas. A realidade apontada no episódio “Volto Já” já existe.
Assim, fica a pergunta: O que esperar de um futuro em que os robôs entenderiam nossas emoções e saberiam simular as suas próprias? Detectariam nossos desejos e saberiam mudar seu comportamento para nos agradar? Esses agentes poderiam nos substituir? E, mais importante, o que diferenciaria nós, humanos, de nossas cópias cibernéticas? Uma diferença realmente existe?
Para que possamos discutir esses aspectos, precisamos entender o contexto atual das tecnologias computacionais que imitam os afetos humanos. Vamos começar então tentando entender o que sabemos sobre as emoções (psicologia das emoções) e o que existe de resultados tecnológicos nas áreas de pesquisa computação afetiva e agentes conversacionais.
O que sabemos (e não sabemos) sobre as emoções
Processos metodológicos, conhecimentos e temas científicos de interesse se modificam à medida que a sociedade, e os seus interesses, também se transforma. Até o século passado, as emoções, e outras manifestações afetivas, foram negligenciadas por cientistas e filósofos que tinham maior interesse em estudar os processos cognitivos, tais como tomada de decisão, memória, atenção, percepção, etc. Credita-se esse desinteresse à visão dualista matéria-espírito (ou corpo e mente), que vê a mente (ou espírito) como algo separado do corpo (matéria) (DAMÁSIO, 2012). Descartes é considerado o fundador do Dualismo. Ele acreditava numa separação mente e corpo e que a glândula pineal seria um “comunicador” entre eles. Dessa forma, os processos cognitivos eram de maior interesse, pois estavam ligados à mente e ao espírito, imortal. Já as emoções, estavam ligadas ao corpo: mortal e controlada pelo espírito.
No entanto, as emoções ganharam os holofotes na atualidade e vários pesquisadores têm se dedicado a estudá-las nas últimas décadas. Atualmente, sabe-se que as emoções e processos cognitivos são interdependentes. As emoções são compostas de processos cognitivos de avaliação, assim como muitos importantes processos cognitivos dependem das emoções. Vamos começar falando de como as emoções dependem dos processos cognitivos.
As emoções são formadas por vários componentes, entre eles: cognitivo, neurofisiológico (responsável pelas mudanças corporais), motivacional (que guia a tendência à ação), de expressão motora (responsável pela expressão vocal e facial, por exemplo) e de sentimento subjetivo (que permite a experiência emocional) (MOORS et al., 2013; SCHERER, 2005). O componente cognitivo é responsável pelo appraisal, que é o nome dado ao processo de avaliação de uma situação geradora de emoções (ARNOLD, 1960; SCHERER, 1999). Por exemplo, um motorista dirigindo tranquilamente na faixa da direita e que é “cortado” bruscamente por outro motorista, obrigando-o a frear o carro repentinamente, provavelmente, sentiria muita raiva. Isso porque “avaliaria” que essa pessoa fez uma ação que o prejudicou (colocou em risco a sua vida e de seus familiares) e que é contra seus valores morais e éticos (fez isso por não respeitar as regras de trânsito corretamente). Esse processo de avaliação realizado pelo motorista prudente é chamado de appraisal, e sabe-se que ele é responsável por disparar as emoções (ARNOLD, 1960; SCHERER, 1999). O appraisal depende do contexto, valores e crenças de um indivíduo e não somente das ações dos outros indivíduos. Muitas pessoas consideram essa forma de dirigir (cortando) “normal”, caso o outro motorista esteja dirigindo na velocidade mínima na pista da esquerda. Num outro contexto, corrida de carro, “cortar” não é considerado errado.
As emoções, além de depender de nossos processos cognitivos, interferem nesses próprios processos cognitivos e em outros. Por exemplo, as emoções auxiliam no processo de tomada de decisão, possibilitando que a escolha seja realizada em um tempo hábil (DAMÁSIO, 2012). Para cada simples decisão, por exemplo, será que vou fazer uma corrida agora?, existem diversas variáveis que poderiam interferir: qual a minha motivação, qual minha disposição física, qual minha vontade, se existe um local seguro onde posso correr, se vai me trazer algum benefício, se tem alguma outra coisa que eu quero ou deva fazer, qual a prioridade dessa outra coisa em relação ao exercício físico, entre outros. Podemos ver essas possibilidades como um grande mapa mental onde os nodos representam os valores e os arcos as perguntas. Esse mapa mental é, geralmente, grande demais para ser avaliado em um tempo viável e usamos nossa memória emocional, ou marcadores somáticos, segundo Damásio, para se restringir a um conjunto menor de opções e assim podermos tomar a decisão mais rapidamente. Damásio (2012), um importante neurocientista da atualidade, criou a teoria dos marcadores somáticos a partir de estudos com pacientes que tinham danos em regiões cerebrais relacionadas a emoções. Essas pessoas tinham dificuldade de tomar decisões simples como marcar a data e horário de uma próxima consulta.
Um outro processo cognitivo que sofre forte interferência das emoções é a memória (BOWER, 1981). Sabe-se que as pessoas tendem a se lembrar de memórias cujo cunho emocional é semelhante às emoções que elas estão sentindo. Por exemplo, quando estamos alegres há uma tendência maior do cérebro recuperar lembranças de situações alegres. Por outro lado, se estamos sentindo emoções de valência negativa, como tristeza e raiva, o cérebro tenderá a recuperar lembranças de outras situações em que sentimos tristeza ou raiva. E assim entramos num processo cíclico de ruminação porque encontramos mais motivos para nossa tristeza e raiva, sem nos dar conta que o nosso cérebro está sendo seletivo em suas escolhas do que nos mostrar.
Computação Afetiva: dotando robôs de habilidades emocionais
Enquanto nós, humanos, sabemos tão mal detectar e interpretar nossas emoções, esse é cada vez menos o caso das máquinas. Elas conseguem detectar emoções até mesmo de formas que não são possíveis para nós mesmos identificá-las ou dissimulá-las. Algoritmos são capazes de identificar um sorriso falso (CHANDLER, 2012) ou detectar as emoções por sensores fisiológicos que imitem sinais que não são sentidos ou detectados por nós humanos (PICARD; VYZAS; HEALEY, 2001).
Atualmente, as máquinas podem detectar as emoções de humanos através das seguintes fontes (CALVO; D’MELLO, 2010): (i) expressões faciais e corporais; (ii) sinais fisiológicos (batimentos cardíacos, eletromiograma - tensão muscular, condutividade da pele, respiração, ondas cerebrais); (iii) voz (prosódia); (iv) texto (diálogo, mensagens, posts); e (v) comportamento observável, isto é, as ações de um usuário na interface do software empregado (por exemplo, opções escolhidas, pedido de ajuda, velocidade de digitação, etc).
As expressões faciais capturadas através de câmeras (webcam, etc) são uma importante fonte de detecção de emoções por software. Existem dois métodos principais nesse caso. O método mais usual é treinar algoritmos de aprendizagem de máquina supervisionado (redes neurais, geralmente) para detectar emoções, usando para treinamento uma base de dados anotada, que pode ser de fotos ou de vídeos. Um segundo método para detectar emoções pelas expressões faciais é baseado no modelo EMFACS do Paul Ekman (EKMAN, 2017). No lugar de detectar as emoções diretamente, busca-se detectar as Action Units (AUs, ou seja, menor unidade de movimentação muscular na face), para então verificar qual emoção é expressa a partir da combinação de AUs observadas (OLIVEIRA; JAQUES, 2013). Grupos de pesquisa também têm empregado a postura de usuários na cadeira ou em pé para detectar as suas emoções.
Os sistemas computacionais podem empregar sensores para detectar emoções através de sinais fisiológicos tais como batimento cardíaco, condutividade elétrica da pele e dos músculos e respiração (PICARD; VYZAS; HEALEY, 2001). Uma questão interessante sobre os sinais fisiológicos é que humanos são incapazes de detectar emoções através desses, ao contrário da voz e da face. Da mesma forma, um humano não conseguiria controlar, por exemplo, seus batimentos cardíacos ou condutividade da pele para enganar um robô que detecte suas emoções. Esses sensores fisiológicos são geralmente usados em conjunto para detectar as emoções.
Uma outra forma de detectar as emoções é através da fala: voz (prosódia), vocalizações não-linguisticas (risos, grito, etc) e conteúdo textual (texto) do que é falado. Isso é bastante útil para ambientes ou robôs que buscam estabelecer um diálogo com o usuário. Geralmente, os melhores resultados são obtidos pelo conteúdo textual ou quando as três fontes de dados são integradas (FORBES-RILEY; LITMAN, 2004).
Uma outra fonte de dados é o comportamento observável, ou seja, toda ação realizada por um usuário na interação com um software. Isso envolve, por exemplo, tempo de resposta, velocidade de digitação, entre outros. Os pesquisadores têm usado duas abordagens diferentes para detectar as emoções a partir desses dados. Uma forma é usá-los juntamente com outras informações do usuário, tais como traços de personalidade, motivação, objetivos, para buscar inferir o appraisal. Essa abordagem foi empregada por Conati, que usou redes bayesianas para essa inferência em jogos educacionais (ZHOU; CONATI, 2003). Entre os trabalhos brasileiros, há minhas pesquisas que usam raciocínio BDI para inferir a emoção dos estudantes a partir do comportamento observável em ambientes inteligentes de aprendizagem (JAQUES, 2008; PONTAROLO et al., 2008). Esses trabalhos se basearam no modelo cognitivo de emoções OCC (ORTONY; CLORE; COLLINS, 1990). Essa forma de inferência não fornece muita precisão na detecção das emoções, por isso, ela deve ser idealmente integrada com outras formas de detecção.
As emoções também podem ser reconhecidas por diversas e diferentes fontes de dados integradas. Quando esse é o caso, estamos falando de detecção multimodal de emoções. A multimodalidade é almejada como sendo a forma mais efetiva de detecção de emoções (CALVO; D’MELLO, 2010) e observa-se um crescente interesse na comunidade nessa forma de detecção.
Em um artigo que escrevi com minha colega Maria Augusta A. S. Nunes (JAQUES, P. A.; NUNES, 2019), totalmente online e de livre acesso, e no qual baseei esse texto, você pode encontrar uma descrição mais detalhada de como essas formas de detecção podem ser empregadas para detectar emoções de alunos em ambientes de aprendizagem inteligentes.
Agentes Conversacionais Animados: robôs em software que interagem de forma mais antropomórfica
Os agentes conversacionais animados (ACA, do inglês, Embodied Conversational Agents) são personagens animados gerados por computador que são capazes de demonstrar muitas das mesmas habilidades que os humanos mostram na interação face a face, incluindo a capacidade de produzir e responder à comunicação verbal e não verbal (CASSELL et al., 2000). Eles possuem mecanismos sofisticados para a expressão corporal e facial, além de fornecerem saída multimodal por texto e fala. Quando um ACA está apto a detectar as emoções dos usuários e responder a essas emoções, eles são chamados de Agentes Conversacionais Animados e Emocionais (ACAEs). Outras denominações também existem, tais como Agentes Emocionalmente Conscientes (Emotionally Sentient Agents) (MCDUFF; CZERWINSKI, 2018).
Uma versão mais simples de agentes conversacionais são os chatterbots. Esses agentes não possuem uma representação corporal do personagem e são capazes de interagir apenas por chat (diálogo simples por texto). Eles possuem mecanismos mais simples de comunicação via conversação do que os ACAs. Basicamente, eles “casam” a fala do usuário com possíveis falas gravadas em uma grande base de dados. Por isso, eles dependem do cadastro de uma exaustiva base de diálogos possíveis.
Uma das formas mais conhecidas de avaliar a inteligência de um agente conversacional é o Teste de Turing (TURING, 1950). A ideia aqui é avaliar a inteligência pelo comportamento inteligente de manter um diálogo com humanos. O Teste de Turing consiste de um diálogo, em linguagem natural, entre um humano (o juiz) com outro humano e uma máquina, sendo que todos os participantes estão separados uns dos outros fisicamente, interagindo por chat. Se o juiz não for capaz de distinguir com segurança a máquina do humano, diz-se que a máquina passou no teste. Muitos pesquisadores discordam se o teste de turing é uma maneira eficiente de medir inteligência robótica (por acreditarem que a inteligência envolve mais que o diálogo) e poucos pesquisadores têm buscado passar no teste (RUSSELL; NORVIG, 2010). Até o ano de 2018 não se tem conhecimento de algum agente conversacional que tenha passado pela versão original do teste.
No caso de agentes conversacionais incorporados (aqueles que possuem um corpo, representado através de um personagem animado, no caso dos robôs em software), um aspecto importante é que nem sempre o agente mais realista (que mais se pareça com um humano) é o que tem a melhor resposta do usuário. Estudos têm mostrado que usuários preferem uma versão semirrealista desses agentes (GROOM et al., 2009). Parece que quanto mais similar ao humano for o agente, maiores as expectativas dos usuários em relação à inteligência e às respostas desse agente e também maior a frustração quando ele não responde de acordo. Esse é um outro aspecto a ser considerado também nas interações emocionais.
Os ACAEs têm sido incorporados em ambientes educacionais de aprendizagem a fim de adaptar a assistência pedagógica também às emoções dos estudantes. Em alguns casos, os resultados das pesquisas Computação Afetiva aplicada à Educação têm contribuído para enriquecer os modelos teóricos sobre a interação emoção e aprendizagem. Os pesquisadores têm usado toda a grande gama de dados de horas da interação desses tutores com alunos (provenientes da gravação de rostos dos estudantes, telas de computadores, entrevistas, log de ações no sistema, etc) para tentar descobrir mais sobre o papel das emoções na aprendizagem e realizar a melhor intervenção pedagógica. D’Mello e Graesser (2010) descrevem uma versão afetiva do ambiente inteligente de aprendizagem AutoTutor que detecta tédio, confusão e frustração através de expressões faciais, movimentos corporais e diálogo do estudante. O tutor, representado por um ACAE, auxilia o estudante a regular suas emoções negativas de forma a não entrar em um círculo vicioso de emoções que prejudicam a aprendizagem.
Porém, não é apenas nas tecnologias educacionais que os ACAEs estão chegando. O projeto SEMAINE (“The SEMAINE Project”, [S.d.]) buscou desenvolver ACAEs com o objetivo de manter um diálogo em linguagem natural com humanos. O diferencial do projeto é que os agentes expressam suas emoções através de fala e expressões faciais de acordo com um modelo de personalidade. Nesse vídeo (“Chatting with a Virtual Agent: The SEMAINE Project Character Obadiah”, 2011), você pode encontrar um interessante diálogo entre uma universitária e o agente Obadiah, que possui uma personalidade um tanto rude.
Falando ainda de ACAEs que imitam humanos, a empresa Eterni.me (“Eternime”, [S.d.]), mencionada na introdução, busca preservar a memória de uma pessoa já falecida em um chatterbot. A ideia é que familiares e amigos possam interagir com essa representação em chatterbot do ente querido por conversação quando tiverem saudades ou quiserem se lembrar de algo. Uma das mensagens de marketing no site da empresa é “Você pode viver para sempre como um avatar”. Déjà vu? Quando perguntado pela revista Wired sobre a semelhança do Eterni.me com o avatar do episódio “Volto Já!”, o cofundador da companhia, Marius Ursache, respondeu que a ideia é que o avatar da eterni.me seja menos assustador e que eles estão tentando ficar longe dessa ideia de que as cópias artificiais dos humanos não permitam que os parentes queridos sigam sua vida em frente (CLARK, 2014). Será que nossas boas intenções, com toda a pressão comercial que essas empresas vão ter, vai ser suficiente para nossa segurança emocional? Deixamos esse assunto para a próxima seção.
Um possível futuro ameaçador: robôs que sabem mais sobre emoções humanas do que humanos
Quais são as possíveis ameaças de um tal agente conversacional animado emocional e da área de inteligência artificial aos humanos? Esse é uma questão da ética da pesquisa em Computação Afetiva (COWIE, 2014). O tema da ética na pesquisa em Inteligência Artificial ganhou interesse principalmente com as declarações de Stephen Hawking (PRICE, 2016), Bill Gates (MACK, 2015) e Elon Musk (FINLAY, 2017), sobre as consequências de máquinas inteligentes no futuro da sociedade humana. Essas consequências vão desde as máquinas inteligentes substituírem humanos em empregos (WILLIAMS-GRUT, 2016) até as máquinas tomarem decisões judiciais racistas nos lugares de juízes (KUGLER, 2018).
Na computação afetiva, existe também algumas questões éticas que precisamos tratar seriamente. As máquinas afetivas têm sua inteligência emocional cada vez mais desenvolvida. Elas sabem quais emoções estamos sentindo, detectadas de forma que nem mesmo somos capazes. Por exemplo, elas sabem inclusive diferenciar um sorriso verdadeiro de um falso (CHANDLER, 2012) ou detectar emoções por sinais fisiológicos que somos incapazes de dissimular (PICARD; VYZAS; HEALEY, 2001). E elas começam a entender muito sobre nossos estados afetivos, sejam eles traços de personalidade, emoções, entre outros.
Um caso que ilustra isso é da empresa Cambridge Analytica e a campanha à presidência de Trump nos EUA, no ano passado (ROSENBERG; CONFESSORE; CADWALLADR, 2018). A empresa usou dados roubados do Facebook em um algoritmo de mineração de dados que identificava o traço de personalidade dos usuários e apresentava aos usuários posts personalizados. Por exemplo, sabe-se que um usuário com traço neurótico tem mais sensibilidade a notícias de cunho negativo. Para esse usuário, mostra-se uma notícia negativa, por exemplo, uma foto de uma arma apontando para ele. Ele vai se sentir mais sensibilizado e envolvido que um usuário com um traço extrovertido. Ao que tudo indica, as redes sociais e a Cambridge Analytica tiveram um importante papel na campanha de Trump e na sua eleição. Esse não é um exemplo futurista. É um caso que já aconteceu!
Como o caso da Cambridge Analytica mostra, agentes animados podem ser desenvolvidos para usar o conhecimento sobre emoções e personalidades a fim de fazer internautas comprarem um produto, votarem num político, tomarem decisões, etc. Esse agente poderia manipular os usuários pelas suas emoções, traços de personalidade, como aconteceu na campanha do Trump. Informações sobre crenças, desejos, traços de personalidade e emoções, coletadas durante anos, podem ser usadas para manipular e levar os indivíduos a tomar certas ações. De certa forma, o marketing já faz isso. A questão é que ele seria mais poderoso por fazê-lo de forma personalizada, levando as características pessoais e, mais especificamente, de um indivíduo em conta. Já recebemos, em nossos smartphones e computadores pessoais, propaganda on-line personalizada em função do local geolocalizado. Por exemplo, imagens de remédio podem ser mostradas se alguém se encontra perto de um hospital. Imagina se amanhã um agente detectar que essa pessoa está em um hospital e está com muito medo. Talvez as imagens de remédio sejam substituídas por propaganda de seguro de vida.
No entanto, não é somente aí, na tomada de decisão, que reside o perigo. Além de interferir nas decisões de compra ou voto, esse tipo de interferência “emocional” pode interferir na saúde mental e física, por consequência. Voltamos aos indivíduos com traço de personalidade neurótico. Eles são mais sensíveis às notícias de cunho negativo. Porém, qual seria o impacto de uma exposição excessiva de notícias de cunho negativo para essas pessoas? Ansiedade, stress, depressão, etc.? Essas consequências já são observadas por aqueles que fazem uso excessivo de smartphones e computadores (ALTER, 2017).
Além de saber muito mais sobre nossos estados afetivos e como reagimos emocionalmente a certas situações, essas tecnologias podem ainda compartilhar essa informação. Infelizmente, nós humanos sabemos muito pouco sobre nossas emoções, como elas surgem e como regulá-las. E conhecimento é poder! Temos que encarar o fato que somos socioemocionalmente vulneráveis às máquinas!
A solução passa, mais uma vez, pela Educação
Numa das cenas, quase no final do episódio, a personagem principal leva o androide do seu falecido companheiro, Ash, a um penhasco e o manda pular. Ele simplesmente diz “ok” e busca um local para pular. E ela então diz: “Viu! Ele [Ash] jamais pularia. Ele tem medo de pular! Ele me pediria para não pular!” E então o avatar muda completamente de comportamento tentando imitar o seu esposo, implorando a ela que não lhe peça de pular, que ele não pode, que ele tem medo... Ela fala então gritando: “Isso não é justo!”.
Realmente, a interação com tais robôs emocionais não é completamente justa conosco, humanos, se não for empregada com bons propósitos e de maneira responsável, levando em conta o bem-estar emocional dos indivíduos. Isso por dois motivos. Primeiramente, porque as máquinas emocionais que construímos não são completamente dotadas de habilidades sociais. Como expliquei anteriormente, elas são capazes de detectar emoções, e até de expressar emoções imitando a nós humanos, mas lhe falta um componente importante nas relações interpessoais: elas não são capazes de sentir emoções. E como não são capazes de sentir as suas próprias emoções, elas não são capazes de sentir as emoções dos outros, de se colocar no lugar do outro; de ter empatia. Considerando a definição de sociopatia como a ausência de empatia (HARE; HART; HARPUR, 1991), o que somos capazes de fazer até o momento são robôs sociopatas. Com todas as implicações disso!
Um segundo motivo é que a detenção de um grande conhecimento, no caso das emoções de humanos por robôs, é uma forma de poder que pode ser bem ou mal empregada. A verdade é que sabemos muito pouco sobre nossas emoções: como elas surgem, quais os impactos nos nossos processos cognitivos (percepção, tomada de decisão, aprendizagem) e quais as maneiras de regulá-las. Os cientistas sabem pouco e desse pouco, menos ainda chega à sociedade através da vulgarização da ciência. Num cenário em que esse conhecimento seria muito mais rapidamente programado em máquinas do que disponibilizado à sociedade, somos vítimas potenciais para essas máquinas, para as empresas que a criam e para as empresas que contratam os seus serviços.
A questão é o que podemos fazer para nos preparar para esse futuro? Como poderíamos nos proteger de máquinas que usassem o conhecimento sobre emoções em humanos para manipulá-los? Mais uma vez, acredito que a solução passa pela educação. Dessa vez, pela educação socioemocional.
As características do desenvolvimento socioemocional incluem a capacidade de identificar e entender os próprios sentimentos, interpretar e compreender estados emocionais em outros, gerenciar emoções fortes e sua expressão de forma construtiva, regular o próprio comportamento, desenvolver a empatia pelos outros e estabelecer e manter relacionamentos (NATIONAL SCIENTIFIC COUNCIL ON THE DEVELOPING CHILD, 2004). E o que é mais importante: ao contrário do que muitos acreditam, essas habilidades socioemocionais podem ser ensinadas e aprendidas (DURLAK et al. 2011). Por que não as ensinar nas escolas?
Embora já tenha existido alguma controvérsia sobre o verdadeiro impacto de estratégias de ensino de habilidades socioemocionais em escolas (MAYER; COBB, 2000), estudos recentes têm trazido evidências de que políticas públicas para desenvolvimento de habilidades socioemocionais têm um impacto positivo tanto no desenvolvimento dessas habilidades quanto no sucesso escolar (DURLAK et al., 2011; SANTOS; PRIMI, 2014; WALDEMAR et al., 2016; WIGELSWORTH et al., 2016). E a identificação e a compreensão das nossas próprias emoções e das pessoas com as quais interagimos é uma importante habilidade a ser desenvolvida (NATIONAL SCIENTIFIC COUNCIL ON THE DEVELOPING CHILD, 2004).
No Brasil, o tema vem ganhando atenção especial. Estudo desenvolvido pelo Instituto Ayrton Sena e pela Organização para a Cooperação e Desenvolvimento Econômico (OCDE) no Rio de Janeiro mostra que adolescentes com competências socioemocionais mais desenvolvidas tendem a ter melhor desempenho escolar (CENTER FOR EDUCATION RESERCH AND INNOVATION (CERI); EDUCATION AND SOCIAL PROGRESS (ESP), 2013). Embora o desenvolvimento de habilidades socioemocionais já esteja presente na Lei de diretrizes e bases da educação nacional (PLANALTO GOVERNO, 2013), o tema ganhou maior visibilidade recentemente com sua inclusão, juntamente com as competências cognitivas e comunicativas, no documento da Base Nacional Comum Curricular, em processo final de elaboração (BRASIL, 2017).
E para mim esse é mesmo um caminho promissor. Quanto mais entendermos sobre nossas emoções, menos vítimas seremos de qualquer tentativa de manipulação através delas. Além disso, o ensino e, portanto, o desenvolvimento de habilidades socioemocionais traz inúmeras vantagens ao nosso equilíbrio emocional e às nossas relações sociais, como alguns projetos promissores têm mostrado (DURLAK et al., 2011; SANTOS; PRIMI, 2014; WALDEMAR et al., 2016; WIGELSWORTH et al. 2016).
E, por mais antagônico que seja, as próprias máquinas podem nos ajudar nesse objetivo. Pesquisadores publicaram um artigo recente em que explicaram os efeitos, nos circuitos cerebrais, de um jogo voltado a ensinar empatia (KRAL et al., 2018). Os resultados são promissores, e os autores encontraram um efeito positivo nos participantes que jogaram apenas até seis horas.
No meu grupo de pesquisa, temos um projeto de desenvolver um agente conversacional que auxilie estudantes a entender suas habilidades socioemocionais. Podem esses agentes “sociopatas” nos ajudar a entender mais sobre nossas emoções? Já existem indícios que os jogos sim, como expliquei anteriormente. Se um diário já nos ajuda a regular as nossas emoções (PENNEBAKER; SEAGAL, 1999), quais seriam os efeitos de um agente que falasse conosco para nos ajudar a entendê-las melhor? É isso que queremos verificar nas nossas pesquisas futuras. Isso não significa que essas máquinas vão substituir o professor nesse processo. Pelo contrário, elas serão mais uma ferramenta para auxiliá-los.
Podem as máquinas nos substituir nas nossas relações de afeto?
O episódio “Volto Já” finaliza com o Ash androide mantido no sótão da casa, sendo apenas “visitado” no aniversário da filha de Martha. Um outro aspecto que vale a pena ser mencionado é como o androide chegou na casa de Martha: pelos correios, numa caixa e com manual de instruções. Enfim, um brinquedo, moderno e altamente tecnológico, mas um brinquedo que Martha achou melhor manter guardado no porão da casa. Por quê? Podemos usar essa cena final como ponto de partida para três discussões interessantes.
Primeiramente, Martha permitia à filha visitar o androide no sótão apenas nos finais de semana ou, excepcionalmente, no seu aniversário. Teria ela se dado conta que aquela era uma tecnologia que deveria permitir o uso de forma controlada e vigiada? As orientações para pais sobre o uso de smartphones e tablets por crianças menores de 12 anos é clara: eles devem ser usados pelas crianças em períodos restritos e assistidos pelos pais (SOCIEDADE BRASILEIRA DE PEDIATRIA, 2016). Os prejuízos do uso excessivo desses aparelhos conectados à internet por crianças são físicos, tais como perda de visão, perturbações do sono, etc., além de psicológicos (isolamento, oscilação de humor, etc.) (YOUNG; DE ABREU, 2011). Embora pesquisadores da neurociência e psicologia não conheçam claramente os mecanismos cerebrais e mentais responsáveis, muitos estudos têm encontrado evidências dos malefícios de tecnologias de comunicação na saúde física e mental das crianças e adolescente quando não usados de forma conscientes e, por isso, alertam sobre o bom uso desses equipamentos.
Façamos aqui também uma analogia com os robôs socioemocionais. Lembrando que eles detectam as nossas emoções e se adaptam para nos fornecer uma interação mais prazerosa. Isso sem a capacidade de empatia, de sentir a emoção do outro, mas com a habilidade de simulá-las, de agir como se as tivesse. Quais as implicações das interações com tais robôs socioemocionais em nossa saúde física e mental? Sabemos que a diversidade cultural tem efeitos positivos na produção e criatividade de empregados nos ambientes de trabalho, embora os conflitos resultantes podem ter alguns efeitos negativos (GUILLAUME et al., 2017). E qual seria o impacto de uma sociedade cuja interação social de humanos seria predominantemente com robôs criados para concordar e agradar? Difícil prever. Vale lembrar que a frustração de Martha começou quando ela se deu conta que o robô não a contrariava: “Ash não aceitaria. Ele não pularia”. Como a maioria das tecnologias que usamos, possivelmente, os efeitos serão positivos e negativos e dependerão da forma como as usamos. E muitos desses impactos apenas descobriremos quando essas tecnologias passarão a ser usadas de forma mais intensiva.
Outro aspecto diz respeito a se essas tecnologias entrarão em nossas vidas para ficar. Os roteiristas de Black Mirror deixaram bem clara a sua visão: no final, um brinquedo guardado no sótão, embora não fique explícito se é devido ao desinteresse de Martha ou a um receio em relação à essa nova tecnologia. No entanto, uma coisa ficou clara: a versão androide de Ash não o substituiu.
Temas como reengenharia reversa do cérebro, robôs socioemocionais, etc., estão saindo dos livros futuristas para virar tema de pesquisa (NATIONAL ACADEMY OF ENGINEERING, 2018). E muita discussão surge em relação a esses aspectos. Seria a consciência uma emergência de vários processos cognitivos no cérebro e por isso capazes de serem simulados (MINSKY, 2007)? Ou haveria um algo mais (uma alma), algo que nos diferencia da máquina e que não pode ser programado? Ainda, podemos nos perguntar serão essas máquinas iguais a nós? Elas irão nos substituir? Conseguiremos estabelecer com elas as mesmas interações de afeto que estabelecemos com outros humanos? Acredito que a resposta para essa pergunta depende da qualidade das interações que temos com outros humanos. Quanto mais rica, mais insubstituível.
A terceira questão que podemos nos perguntar é porque buscamos construir máquinas que nos assemelham. Quando não tínhamos a tecnologia necessária, esse assunto tomava conta da literatura de ficção científica (livros de Isamov), e nos filmes futuristas (21: uma odisseia no espaço, Her, etc.). Agora, eles fazem parte dos nossos interesses científicos. Apple Siri, Amazon Alexa e Google Duplex estão aí para mostrar que o futuro chegou.
Uma tarde, em junho de 2015, estava tão entusiasmada com a Siri (o agente conversacional da Apple) que perguntei a ela: “Siri, tu me amas como eu te amo?”, e a Siri me respondeu: “está procurando amor no lugar errado.” Eu me disse que essa é uma sábia resposta que os desenvolvedores da Siri programaram. Em dezembro de 2018 voltei a fazer a mesma pergunta, para a qual a Siri me respondeu: “Eu só sei que a cada dia que passa eu gosto mais de você.” Uma hora depois fiz a mesma pergunta e a Siri, para minha grande frustração, me deu a mesma resposta. O que será que a Siri será capaz de me responder nos próximos dias? Será ela capaz de “sentir” o que ela dirá? Às vezes, tenho a impressão de que essas interações com a Siri me ensinam mais sobre mim mesma (minhas expectativas, como eu reajo a certas situações, etc.) do que sobre a Siri. Seria para isso que buscamos criar máquinas tão parecidas conosco?