SciELO - Scientific Electronic Library Online

 
vol.19 número62¿Por qué Black Mirror da tanto en qué pensar?USS Callister: universos de ficción y aprendizaje de lenguas* índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Compartir


Revista Diálogo Educacional

versión impresa ISSN 1518-3483versión On-line ISSN 1981-416X

Rev. Diálogo Educ. vol.19 no.62 Curitiba jul./sept 2019  Epub 30-Ene-2020

https://doi.org/10.7213/1981-416x.19.062.ds02 

Dossiê

Dotando robôs com habilidades socioemocionais: presente, futuro e implicações éticas

Endowing Robots with Social-Emotional Skills: state of the art and ethical implications

Dotar a los robots de habilidades socioemocionales: implicaciones presentes, futuras y éticas

aUniversidade do Vale do Rio dos Sinos (UNISINOS), São Leopoldo, RS, Brasil. Doutor em Ciência da Computação, e-mail: pjaques@unisinos.br.


Resumo

Nesse artigo busco discutir os impactos de robôs (em software ou hardware) dotados de habilidades socioemocionais. Para isso, uso como cenário ilustrativo o episódio “Volto Já”, da segunda temporada da série de televisão “Black Mirror”. Nesse episódio, Martha compra um robô que simula a personalidade do seu falecido marido, aprendida através das interações dele em redes sociais. O episódio trata das relações de afeto com robôs, justamente o tema que pretendo abordar, me focando nas emoções. Para tanto, primeiramente apresento o estado da arte nas pesquisas em Computação Afetiva que envolvem robôs, capazes de detectar emoções de diversas formas e responder a essas emoções para interagir de maneira mais antropomórfica. Posteriormente, abordarei potenciais impactos desse tipo de tecnologia na vida de humanos e no seu bem-estar e possíveis implicações éticas. Finalizarei esse artigo discutindo sobre como as tecnologias podem ser empregadas para aprendermos mais sobre nossos afetos.

Palavras-chave: Computação Afetiva; Robôs; Agentes Conversacionais; Emoções; Personalidade; Black Mirror

Abstract

In this article I discuss the impacts of robots (in software or hardware) with social-emotional abilities in the society. For this purpose, I use as an illustrative scenario the episode "Be right Back" from the second season of the television series "Black Mirror". In this episode, Martha buys a robot that simulates the personality of her deceased husband, learned through his interactions in social networks. The episode examines the personal relationships of affection with robots, precisely the subject that I intend to approach, focusing on the emotions. To do so, I first present the state of the art in Affective Computing research involving robots that are able to detect human’s emotions in a variety of ways and respond to these emotions to interact more anthropomorphically. Subsequently, I will address potential impacts of this type of technology on human life and its well-being and possible ethical implications. I will conclude this article by discussing how technologies can be used for us to learn more about our emotions.

Keywords: Affective Computing; Robots; Conversational Agents; Emotions; Personality; Black Mirror

Resumen

En este artículo busco discutir los impactos de robots (en software o hardware) dotados de habilidades socioemocionales. Para ello, utilizo como escenario ilustrativo el episodio "Vuelvo Ya", de la segunda temporada de la serie de televisión "Black Mirror". En ese episodio, Martha compra un robot que simula la personalidad de su fallecido marido, aprendida a través de sus interacciones en redes sociales. El episodio trata de las relaciones de afecto con robots, justamente el tema que pretendo abordar, enfocándome en las emociones. Para ello, primero, presento el estado del arte en las investigaciones en Computación Afectiva que involucran robots que son capaces de detectar emociones de diversas formas y responder a esas emociones para interactuar de manera más antropomórfica. Posteriormente, abordar los posibles impactos de este tipo de tecnología en la vida de los humanos y en su bienestar y posibles implicaciones éticas. Terminaré este artículo discutiendo sobre cómo las tecnologías pueden ser empleadas para aprender más sobre nuestros afectos.

Palabras clave: Computación Afectiva; Robots; Agentes Conversacionales; Emociones; Personalidad; Black Mirror

“Volto Já!”

Como todos os outros episódios do Black Mirror, o episódio intitulado “Volto Já” fala de um tema atual e que tem sido muito debatido atualmente devido aos recentes avanços da Inteligência Artificial: podem as máquinas substituir os humanos? No entanto, esse episódio em especial aborda mais profundamente essa questão, questionando: “Podem as máquinas nos substituir em nossas relações humanas de afeto?”. Nesse artigo quero compartilhar as minhas impressões, como pesquisadora em Computação Afetiva e Inteligência Artificial, sobre esse tema, usando o episódio “Volto Já” como ponto de partida. Antes de começar, uma recomendação: esse artigo contém spoilers e muitos! Assim, recomendo fortemente ao leitor que o assista antes da leitura.

No episódio “Volto Já”, Martha perde seu esposo em um acidente de carro. Era uma breve viagem e ele estaria de volta em seguida. Ele nunca voltou. Grávida de seu companheiro e arrasada, Marta entra em depressão e não consegue restabelecer sua vida. Ainda hesitante, decide então aceitar os conselhos que uma amiga viúva lhe deu no velório de seu esposo: “Eu sei de algo que pode lhe ajudar”, disse ela. Esse algo era um agente conversacional inteligente (uma espécie de avatar que interage por diálogo pelo celular) que simularia o seu esposo. A empresa contratada reconstrói a personalidade do seu esposo no agente conversacional a partir de posts dele na internet (Facebook, Instagram, e-mails, WhatsApp, Twitter) e outros materiais audiovisuais (vídeos). Tudo é usado para criar a cópia do seu esposo: sua personalidade, suas memórias, suas atitudes interpessoais. Martha fica impressionada, pois o agente conversacional fala como se realmente fosse o esposo! Primeiramente, em modo texto, após em voz. No entanto, isso não era suficiente. Ela queria mais! Faltava, nessa relação, o contato físico e as relações interpessoais afetivas. Ela resolveu contratar o serviço mais elaborado da empresa. Tratava se de um robô com formas humanas (uma espécie de androide) que seria uma cópia física exata do seu esposo, com sua personalidade, interagindo como se fosse ele. Agora ela teria seu companheiro por completo novamente. Nada faltaria. Será?

O que é mais interessante nessa discussão é, e como vou tentar mostrar nas próximas seções, que muito da tecnologia para construir essa cópia robótica de humanos já existe. Uma empresa start-up no Vale do Silício americano tem como principal produto a criação de agentes conversacionais que imitam a personalidade de humanos falecidos (“Eternime”, [S.d.]). Isso é possível porque, na área de pesquisa em Computação Afetiva, já há resultados interessantes para criar robôs, sejam eles em software (chamados de agentes inteligentes), como o agente conversacional, ou em hardware (físicos), que possuem personalidade, “entendem” e expressam emoções. Esses agentes sabem falar conosco de vários assuntos, realizar small-talking para quebrar o gelo, detectar nossas emoções de forma que nem mesmo sabemos, agir de acordo com uma personalidade, ter um repleto e amplo repertório de conhecimento. Todas características humanas. A realidade apontada no episódio “Volto Já” já existe.

Assim, fica a pergunta: O que esperar de um futuro em que os robôs entenderiam nossas emoções e saberiam simular as suas próprias? Detectariam nossos desejos e saberiam mudar seu comportamento para nos agradar? Esses agentes poderiam nos substituir? E, mais importante, o que diferenciaria nós, humanos, de nossas cópias cibernéticas? Uma diferença realmente existe?

Para que possamos discutir esses aspectos, precisamos entender o contexto atual das tecnologias computacionais que imitam os afetos humanos. Vamos começar então tentando entender o que sabemos sobre as emoções (psicologia das emoções) e o que existe de resultados tecnológicos nas áreas de pesquisa computação afetiva e agentes conversacionais.

O que sabemos (e não sabemos) sobre as emoções

Processos metodológicos, conhecimentos e temas científicos de interesse se modificam à medida que a sociedade, e os seus interesses, também se transforma. Até o século passado, as emoções, e outras manifestações afetivas, foram negligenciadas por cientistas e filósofos que tinham maior interesse em estudar os processos cognitivos, tais como tomada de decisão, memória, atenção, percepção, etc. Credita-se esse desinteresse à visão dualista matéria-espírito (ou corpo e mente), que vê a mente (ou espírito) como algo separado do corpo (matéria) (DAMÁSIO, 2012). Descartes é considerado o fundador do Dualismo. Ele acreditava numa separação mente e corpo e que a glândula pineal seria um “comunicador” entre eles. Dessa forma, os processos cognitivos eram de maior interesse, pois estavam ligados à mente e ao espírito, imortal. Já as emoções, estavam ligadas ao corpo: mortal e controlada pelo espírito.

No entanto, as emoções ganharam os holofotes na atualidade e vários pesquisadores têm se dedicado a estudá-las nas últimas décadas. Atualmente, sabe-se que as emoções e processos cognitivos são interdependentes. As emoções são compostas de processos cognitivos de avaliação, assim como muitos importantes processos cognitivos dependem das emoções. Vamos começar falando de como as emoções dependem dos processos cognitivos.

As emoções são formadas por vários componentes, entre eles: cognitivo, neurofisiológico (responsável pelas mudanças corporais), motivacional (que guia a tendência à ação), de expressão motora (responsável pela expressão vocal e facial, por exemplo) e de sentimento subjetivo (que permite a experiência emocional) (MOORS et al., 2013; SCHERER, 2005). O componente cognitivo é responsável pelo appraisal, que é o nome dado ao processo de avaliação de uma situação geradora de emoções (ARNOLD, 1960; SCHERER, 1999). Por exemplo, um motorista dirigindo tranquilamente na faixa da direita e que é “cortado” bruscamente por outro motorista, obrigando-o a frear o carro repentinamente, provavelmente, sentiria muita raiva. Isso porque “avaliaria” que essa pessoa fez uma ação que o prejudicou (colocou em risco a sua vida e de seus familiares) e que é contra seus valores morais e éticos (fez isso por não respeitar as regras de trânsito corretamente). Esse processo de avaliação realizado pelo motorista prudente é chamado de appraisal, e sabe-se que ele é responsável por disparar as emoções (ARNOLD, 1960; SCHERER, 1999). O appraisal depende do contexto, valores e crenças de um indivíduo e não somente das ações dos outros indivíduos. Muitas pessoas consideram essa forma de dirigir (cortando) “normal”, caso o outro motorista esteja dirigindo na velocidade mínima na pista da esquerda. Num outro contexto, corrida de carro, “cortar” não é considerado errado.

As emoções, além de depender de nossos processos cognitivos, interferem nesses próprios processos cognitivos e em outros. Por exemplo, as emoções auxiliam no processo de tomada de decisão, possibilitando que a escolha seja realizada em um tempo hábil (DAMÁSIO, 2012). Para cada simples decisão, por exemplo, será que vou fazer uma corrida agora?, existem diversas variáveis que poderiam interferir: qual a minha motivação, qual minha disposição física, qual minha vontade, se existe um local seguro onde posso correr, se vai me trazer algum benefício, se tem alguma outra coisa que eu quero ou deva fazer, qual a prioridade dessa outra coisa em relação ao exercício físico, entre outros. Podemos ver essas possibilidades como um grande mapa mental onde os nodos representam os valores e os arcos as perguntas. Esse mapa mental é, geralmente, grande demais para ser avaliado em um tempo viável e usamos nossa memória emocional, ou marcadores somáticos, segundo Damásio, para se restringir a um conjunto menor de opções e assim podermos tomar a decisão mais rapidamente. Damásio (2012), um importante neurocientista da atualidade, criou a teoria dos marcadores somáticos a partir de estudos com pacientes que tinham danos em regiões cerebrais relacionadas a emoções. Essas pessoas tinham dificuldade de tomar decisões simples como marcar a data e horário de uma próxima consulta.

Um outro processo cognitivo que sofre forte interferência das emoções é a memória (BOWER, 1981). Sabe-se que as pessoas tendem a se lembrar de memórias cujo cunho emocional é semelhante às emoções que elas estão sentindo. Por exemplo, quando estamos alegres há uma tendência maior do cérebro recuperar lembranças de situações alegres. Por outro lado, se estamos sentindo emoções de valência negativa, como tristeza e raiva, o cérebro tenderá a recuperar lembranças de outras situações em que sentimos tristeza ou raiva. E assim entramos num processo cíclico de ruminação porque encontramos mais motivos para nossa tristeza e raiva, sem nos dar conta que o nosso cérebro está sendo seletivo em suas escolhas do que nos mostrar.

Computação Afetiva: dotando robôs de habilidades emocionais

Enquanto nós, humanos, sabemos tão mal detectar e interpretar nossas emoções, esse é cada vez menos o caso das máquinas. Elas conseguem detectar emoções até mesmo de formas que não são possíveis para nós mesmos identificá-las ou dissimulá-las. Algoritmos são capazes de identificar um sorriso falso (CHANDLER, 2012) ou detectar as emoções por sensores fisiológicos que imitem sinais que não são sentidos ou detectados por nós humanos (PICARD; VYZAS; HEALEY, 2001).

Atualmente, as máquinas podem detectar as emoções de humanos através das seguintes fontes (CALVO; D’MELLO, 2010): (i) expressões faciais e corporais; (ii) sinais fisiológicos (batimentos cardíacos, eletromiograma - tensão muscular, condutividade da pele, respiração, ondas cerebrais); (iii) voz (prosódia); (iv) texto (diálogo, mensagens, posts); e (v) comportamento observável, isto é, as ações de um usuário na interface do software empregado (por exemplo, opções escolhidas, pedido de ajuda, velocidade de digitação, etc).

As expressões faciais capturadas através de câmeras (webcam, etc) são uma importante fonte de detecção de emoções por software. Existem dois métodos principais nesse caso. O método mais usual é treinar algoritmos de aprendizagem de máquina supervisionado (redes neurais, geralmente) para detectar emoções, usando para treinamento uma base de dados anotada, que pode ser de fotos ou de vídeos. Um segundo método para detectar emoções pelas expressões faciais é baseado no modelo EMFACS do Paul Ekman (EKMAN, 2017). No lugar de detectar as emoções diretamente, busca-se detectar as Action Units (AUs, ou seja, menor unidade de movimentação muscular na face), para então verificar qual emoção é expressa a partir da combinação de AUs observadas (OLIVEIRA; JAQUES, 2013). Grupos de pesquisa também têm empregado a postura de usuários na cadeira ou em pé para detectar as suas emoções.

Os sistemas computacionais podem empregar sensores para detectar emoções através de sinais fisiológicos tais como batimento cardíaco, condutividade elétrica da pele e dos músculos e respiração (PICARD; VYZAS; HEALEY, 2001). Uma questão interessante sobre os sinais fisiológicos é que humanos são incapazes de detectar emoções através desses, ao contrário da voz e da face. Da mesma forma, um humano não conseguiria controlar, por exemplo, seus batimentos cardíacos ou condutividade da pele para enganar um robô que detecte suas emoções. Esses sensores fisiológicos são geralmente usados em conjunto para detectar as emoções.

Uma outra forma de detectar as emoções é através da fala: voz (prosódia), vocalizações não-linguisticas (risos, grito, etc) e conteúdo textual (texto) do que é falado. Isso é bastante útil para ambientes ou robôs que buscam estabelecer um diálogo com o usuário. Geralmente, os melhores resultados são obtidos pelo conteúdo textual ou quando as três fontes de dados são integradas (FORBES-RILEY; LITMAN, 2004).

Uma outra fonte de dados é o comportamento observável, ou seja, toda ação realizada por um usuário na interação com um software. Isso envolve, por exemplo, tempo de resposta, velocidade de digitação, entre outros. Os pesquisadores têm usado duas abordagens diferentes para detectar as emoções a partir desses dados. Uma forma é usá-los juntamente com outras informações do usuário, tais como traços de personalidade, motivação, objetivos, para buscar inferir o appraisal. Essa abordagem foi empregada por Conati, que usou redes bayesianas para essa inferência em jogos educacionais (ZHOU; CONATI, 2003). Entre os trabalhos brasileiros, há minhas pesquisas que usam raciocínio BDI para inferir a emoção dos estudantes a partir do comportamento observável em ambientes inteligentes de aprendizagem (JAQUES, 2008; PONTAROLO et al., 2008). Esses trabalhos se basearam no modelo cognitivo de emoções OCC (ORTONY; CLORE; COLLINS, 1990). Essa forma de inferência não fornece muita precisão na detecção das emoções, por isso, ela deve ser idealmente integrada com outras formas de detecção.

As emoções também podem ser reconhecidas por diversas e diferentes fontes de dados integradas. Quando esse é o caso, estamos falando de detecção multimodal de emoções. A multimodalidade é almejada como sendo a forma mais efetiva de detecção de emoções (CALVO; D’MELLO, 2010) e observa-se um crescente interesse na comunidade nessa forma de detecção.

Em um artigo que escrevi com minha colega Maria Augusta A. S. Nunes (JAQUES, P. A.; NUNES, 2019), totalmente online e de livre acesso, e no qual baseei esse texto, você pode encontrar uma descrição mais detalhada de como essas formas de detecção podem ser empregadas para detectar emoções de alunos em ambientes de aprendizagem inteligentes.

Agentes Conversacionais Animados: robôs em software que interagem de forma mais antropomórfica

Os agentes conversacionais animados (ACA, do inglês, Embodied Conversational Agents) são personagens animados gerados por computador que são capazes de demonstrar muitas das mesmas habilidades que os humanos mostram na interação face a face, incluindo a capacidade de produzir e responder à comunicação verbal e não verbal (CASSELL et al., 2000). Eles possuem mecanismos sofisticados para a expressão corporal e facial, além de fornecerem saída multimodal por texto e fala. Quando um ACA está apto a detectar as emoções dos usuários e responder a essas emoções, eles são chamados de Agentes Conversacionais Animados e Emocionais (ACAEs). Outras denominações também existem, tais como Agentes Emocionalmente Conscientes (Emotionally Sentient Agents) (MCDUFF; CZERWINSKI, 2018).

Uma versão mais simples de agentes conversacionais são os chatterbots. Esses agentes não possuem uma representação corporal do personagem e são capazes de interagir apenas por chat (diálogo simples por texto). Eles possuem mecanismos mais simples de comunicação via conversação do que os ACAs. Basicamente, eles “casam” a fala do usuário com possíveis falas gravadas em uma grande base de dados. Por isso, eles dependem do cadastro de uma exaustiva base de diálogos possíveis.

Uma das formas mais conhecidas de avaliar a inteligência de um agente conversacional é o Teste de Turing (TURING, 1950). A ideia aqui é avaliar a inteligência pelo comportamento inteligente de manter um diálogo com humanos. O Teste de Turing consiste de um diálogo, em linguagem natural, entre um humano (o juiz) com outro humano e uma máquina, sendo que todos os participantes estão separados uns dos outros fisicamente, interagindo por chat. Se o juiz não for capaz de distinguir com segurança a máquina do humano, diz-se que a máquina passou no teste. Muitos pesquisadores discordam se o teste de turing é uma maneira eficiente de medir inteligência robótica (por acreditarem que a inteligência envolve mais que o diálogo) e poucos pesquisadores têm buscado passar no teste (RUSSELL; NORVIG, 2010). Até o ano de 2018 não se tem conhecimento de algum agente conversacional que tenha passado pela versão original do teste.

No caso de agentes conversacionais incorporados (aqueles que possuem um corpo, representado através de um personagem animado, no caso dos robôs em software), um aspecto importante é que nem sempre o agente mais realista (que mais se pareça com um humano) é o que tem a melhor resposta do usuário. Estudos têm mostrado que usuários preferem uma versão semirrealista desses agentes (GROOM et al., 2009). Parece que quanto mais similar ao humano for o agente, maiores as expectativas dos usuários em relação à inteligência e às respostas desse agente e também maior a frustração quando ele não responde de acordo. Esse é um outro aspecto a ser considerado também nas interações emocionais.

Os ACAEs têm sido incorporados em ambientes educacionais de aprendizagem a fim de adaptar a assistência pedagógica também às emoções dos estudantes. Em alguns casos, os resultados das pesquisas Computação Afetiva aplicada à Educação têm contribuído para enriquecer os modelos teóricos sobre a interação emoção e aprendizagem. Os pesquisadores têm usado toda a grande gama de dados de horas da interação desses tutores com alunos (provenientes da gravação de rostos dos estudantes, telas de computadores, entrevistas, log de ações no sistema, etc) para tentar descobrir mais sobre o papel das emoções na aprendizagem e realizar a melhor intervenção pedagógica. D’Mello e Graesser (2010) descrevem uma versão afetiva do ambiente inteligente de aprendizagem AutoTutor que detecta tédio, confusão e frustração através de expressões faciais, movimentos corporais e diálogo do estudante. O tutor, representado por um ACAE, auxilia o estudante a regular suas emoções negativas de forma a não entrar em um círculo vicioso de emoções que prejudicam a aprendizagem.

Porém, não é apenas nas tecnologias educacionais que os ACAEs estão chegando. O projeto SEMAINE (“The SEMAINE Project”, [S.d.]) buscou desenvolver ACAEs com o objetivo de manter um diálogo em linguagem natural com humanos. O diferencial do projeto é que os agentes expressam suas emoções através de fala e expressões faciais de acordo com um modelo de personalidade. Nesse vídeo (“Chatting with a Virtual Agent: The SEMAINE Project Character Obadiah”, 2011), você pode encontrar um interessante diálogo entre uma universitária e o agente Obadiah, que possui uma personalidade um tanto rude.

Falando ainda de ACAEs que imitam humanos, a empresa Eterni.me (“Eternime”, [S.d.]), mencionada na introdução, busca preservar a memória de uma pessoa já falecida em um chatterbot. A ideia é que familiares e amigos possam interagir com essa representação em chatterbot do ente querido por conversação quando tiverem saudades ou quiserem se lembrar de algo. Uma das mensagens de marketing no site da empresa é “Você pode viver para sempre como um avatar”. Déjà vu? Quando perguntado pela revista Wired sobre a semelhança do Eterni.me com o avatar do episódio “Volto Já!”, o cofundador da companhia, Marius Ursache, respondeu que a ideia é que o avatar da eterni.me seja menos assustador e que eles estão tentando ficar longe dessa ideia de que as cópias artificiais dos humanos não permitam que os parentes queridos sigam sua vida em frente (CLARK, 2014). Será que nossas boas intenções, com toda a pressão comercial que essas empresas vão ter, vai ser suficiente para nossa segurança emocional? Deixamos esse assunto para a próxima seção.

Um possível futuro ameaçador: robôs que sabem mais sobre emoções humanas do que humanos

Quais são as possíveis ameaças de um tal agente conversacional animado emocional e da área de inteligência artificial aos humanos? Esse é uma questão da ética da pesquisa em Computação Afetiva (COWIE, 2014). O tema da ética na pesquisa em Inteligência Artificial ganhou interesse principalmente com as declarações de Stephen Hawking (PRICE, 2016), Bill Gates (MACK, 2015) e Elon Musk (FINLAY, 2017), sobre as consequências de máquinas inteligentes no futuro da sociedade humana. Essas consequências vão desde as máquinas inteligentes substituírem humanos em empregos (WILLIAMS-GRUT, 2016) até as máquinas tomarem decisões judiciais racistas nos lugares de juízes (KUGLER, 2018).

Na computação afetiva, existe também algumas questões éticas que precisamos tratar seriamente. As máquinas afetivas têm sua inteligência emocional cada vez mais desenvolvida. Elas sabem quais emoções estamos sentindo, detectadas de forma que nem mesmo somos capazes. Por exemplo, elas sabem inclusive diferenciar um sorriso verdadeiro de um falso (CHANDLER, 2012) ou detectar emoções por sinais fisiológicos que somos incapazes de dissimular (PICARD; VYZAS; HEALEY, 2001). E elas começam a entender muito sobre nossos estados afetivos, sejam eles traços de personalidade, emoções, entre outros.

Um caso que ilustra isso é da empresa Cambridge Analytica e a campanha à presidência de Trump nos EUA, no ano passado (ROSENBERG; CONFESSORE; CADWALLADR, 2018). A empresa usou dados roubados do Facebook em um algoritmo de mineração de dados que identificava o traço de personalidade dos usuários e apresentava aos usuários posts personalizados. Por exemplo, sabe-se que um usuário com traço neurótico tem mais sensibilidade a notícias de cunho negativo. Para esse usuário, mostra-se uma notícia negativa, por exemplo, uma foto de uma arma apontando para ele. Ele vai se sentir mais sensibilizado e envolvido que um usuário com um traço extrovertido. Ao que tudo indica, as redes sociais e a Cambridge Analytica tiveram um importante papel na campanha de Trump e na sua eleição. Esse não é um exemplo futurista. É um caso que já aconteceu!

Como o caso da Cambridge Analytica mostra, agentes animados podem ser desenvolvidos para usar o conhecimento sobre emoções e personalidades a fim de fazer internautas comprarem um produto, votarem num político, tomarem decisões, etc. Esse agente poderia manipular os usuários pelas suas emoções, traços de personalidade, como aconteceu na campanha do Trump. Informações sobre crenças, desejos, traços de personalidade e emoções, coletadas durante anos, podem ser usadas para manipular e levar os indivíduos a tomar certas ações. De certa forma, o marketing já faz isso. A questão é que ele seria mais poderoso por fazê-lo de forma personalizada, levando as características pessoais e, mais especificamente, de um indivíduo em conta. Já recebemos, em nossos smartphones e computadores pessoais, propaganda on-line personalizada em função do local geolocalizado. Por exemplo, imagens de remédio podem ser mostradas se alguém se encontra perto de um hospital. Imagina se amanhã um agente detectar que essa pessoa está em um hospital e está com muito medo. Talvez as imagens de remédio sejam substituídas por propaganda de seguro de vida.

No entanto, não é somente aí, na tomada de decisão, que reside o perigo. Além de interferir nas decisões de compra ou voto, esse tipo de interferência “emocional” pode interferir na saúde mental e física, por consequência. Voltamos aos indivíduos com traço de personalidade neurótico. Eles são mais sensíveis às notícias de cunho negativo. Porém, qual seria o impacto de uma exposição excessiva de notícias de cunho negativo para essas pessoas? Ansiedade, stress, depressão, etc.? Essas consequências já são observadas por aqueles que fazem uso excessivo de smartphones e computadores (ALTER, 2017).

Além de saber muito mais sobre nossos estados afetivos e como reagimos emocionalmente a certas situações, essas tecnologias podem ainda compartilhar essa informação. Infelizmente, nós humanos sabemos muito pouco sobre nossas emoções, como elas surgem e como regulá-las. E conhecimento é poder! Temos que encarar o fato que somos socioemocionalmente vulneráveis às máquinas!

A solução passa, mais uma vez, pela Educação

Numa das cenas, quase no final do episódio, a personagem principal leva o androide do seu falecido companheiro, Ash, a um penhasco e o manda pular. Ele simplesmente diz “ok” e busca um local para pular. E ela então diz: “Viu! Ele [Ash] jamais pularia. Ele tem medo de pular! Ele me pediria para não pular!” E então o avatar muda completamente de comportamento tentando imitar o seu esposo, implorando a ela que não lhe peça de pular, que ele não pode, que ele tem medo... Ela fala então gritando: “Isso não é justo!”.

Realmente, a interação com tais robôs emocionais não é completamente justa conosco, humanos, se não for empregada com bons propósitos e de maneira responsável, levando em conta o bem-estar emocional dos indivíduos. Isso por dois motivos. Primeiramente, porque as máquinas emocionais que construímos não são completamente dotadas de habilidades sociais. Como expliquei anteriormente, elas são capazes de detectar emoções, e até de expressar emoções imitando a nós humanos, mas lhe falta um componente importante nas relações interpessoais: elas não são capazes de sentir emoções. E como não são capazes de sentir as suas próprias emoções, elas não são capazes de sentir as emoções dos outros, de se colocar no lugar do outro; de ter empatia. Considerando a definição de sociopatia como a ausência de empatia (HARE; HART; HARPUR, 1991), o que somos capazes de fazer até o momento são robôs sociopatas. Com todas as implicações disso!

Um segundo motivo é que a detenção de um grande conhecimento, no caso das emoções de humanos por robôs, é uma forma de poder que pode ser bem ou mal empregada. A verdade é que sabemos muito pouco sobre nossas emoções: como elas surgem, quais os impactos nos nossos processos cognitivos (percepção, tomada de decisão, aprendizagem) e quais as maneiras de regulá-las. Os cientistas sabem pouco e desse pouco, menos ainda chega à sociedade através da vulgarização da ciência. Num cenário em que esse conhecimento seria muito mais rapidamente programado em máquinas do que disponibilizado à sociedade, somos vítimas potenciais para essas máquinas, para as empresas que a criam e para as empresas que contratam os seus serviços.

A questão é o que podemos fazer para nos preparar para esse futuro? Como poderíamos nos proteger de máquinas que usassem o conhecimento sobre emoções em humanos para manipulá-los? Mais uma vez, acredito que a solução passa pela educação. Dessa vez, pela educação socioemocional.

As características do desenvolvimento socioemocional incluem a capacidade de identificar e entender os próprios sentimentos, interpretar e compreender estados emocionais em outros, gerenciar emoções fortes e sua expressão de forma construtiva, regular o próprio comportamento, desenvolver a empatia pelos outros e estabelecer e manter relacionamentos (NATIONAL SCIENTIFIC COUNCIL ON THE DEVELOPING CHILD, 2004). E o que é mais importante: ao contrário do que muitos acreditam, essas habilidades socioemocionais podem ser ensinadas e aprendidas (DURLAK et al. 2011). Por que não as ensinar nas escolas?

Embora já tenha existido alguma controvérsia sobre o verdadeiro impacto de estratégias de ensino de habilidades socioemocionais em escolas (MAYER; COBB, 2000), estudos recentes têm trazido evidências de que políticas públicas para desenvolvimento de habilidades socioemocionais têm um impacto positivo tanto no desenvolvimento dessas habilidades quanto no sucesso escolar (DURLAK et al., 2011; SANTOS; PRIMI, 2014; WALDEMAR et al., 2016; WIGELSWORTH et al., 2016). E a identificação e a compreensão das nossas próprias emoções e das pessoas com as quais interagimos é uma importante habilidade a ser desenvolvida (NATIONAL SCIENTIFIC COUNCIL ON THE DEVELOPING CHILD, 2004).

No Brasil, o tema vem ganhando atenção especial. Estudo desenvolvido pelo Instituto Ayrton Sena e pela Organização para a Cooperação e Desenvolvimento Econômico (OCDE) no Rio de Janeiro mostra que adolescentes com competências socioemocionais mais desenvolvidas tendem a ter melhor desempenho escolar (CENTER FOR EDUCATION RESERCH AND INNOVATION (CERI); EDUCATION AND SOCIAL PROGRESS (ESP), 2013). Embora o desenvolvimento de habilidades socioemocionais já esteja presente na Lei de diretrizes e bases da educação nacional (PLANALTO GOVERNO, 2013), o tema ganhou maior visibilidade recentemente com sua inclusão, juntamente com as competências cognitivas e comunicativas, no documento da Base Nacional Comum Curricular, em processo final de elaboração (BRASIL, 2017).

E para mim esse é mesmo um caminho promissor. Quanto mais entendermos sobre nossas emoções, menos vítimas seremos de qualquer tentativa de manipulação através delas. Além disso, o ensino e, portanto, o desenvolvimento de habilidades socioemocionais traz inúmeras vantagens ao nosso equilíbrio emocional e às nossas relações sociais, como alguns projetos promissores têm mostrado (DURLAK et al., 2011; SANTOS; PRIMI, 2014; WALDEMAR et al., 2016; WIGELSWORTH et al. 2016).

E, por mais antagônico que seja, as próprias máquinas podem nos ajudar nesse objetivo. Pesquisadores publicaram um artigo recente em que explicaram os efeitos, nos circuitos cerebrais, de um jogo voltado a ensinar empatia (KRAL et al., 2018). Os resultados são promissores, e os autores encontraram um efeito positivo nos participantes que jogaram apenas até seis horas.

No meu grupo de pesquisa, temos um projeto de desenvolver um agente conversacional que auxilie estudantes a entender suas habilidades socioemocionais. Podem esses agentes “sociopatas” nos ajudar a entender mais sobre nossas emoções? Já existem indícios que os jogos sim, como expliquei anteriormente. Se um diário já nos ajuda a regular as nossas emoções (PENNEBAKER; SEAGAL, 1999), quais seriam os efeitos de um agente que falasse conosco para nos ajudar a entendê-las melhor? É isso que queremos verificar nas nossas pesquisas futuras. Isso não significa que essas máquinas vão substituir o professor nesse processo. Pelo contrário, elas serão mais uma ferramenta para auxiliá-los.

Podem as máquinas nos substituir nas nossas relações de afeto?

O episódio “Volto Já” finaliza com o Ash androide mantido no sótão da casa, sendo apenas “visitado” no aniversário da filha de Martha. Um outro aspecto que vale a pena ser mencionado é como o androide chegou na casa de Martha: pelos correios, numa caixa e com manual de instruções. Enfim, um brinquedo, moderno e altamente tecnológico, mas um brinquedo que Martha achou melhor manter guardado no porão da casa. Por quê? Podemos usar essa cena final como ponto de partida para três discussões interessantes.

Primeiramente, Martha permitia à filha visitar o androide no sótão apenas nos finais de semana ou, excepcionalmente, no seu aniversário. Teria ela se dado conta que aquela era uma tecnologia que deveria permitir o uso de forma controlada e vigiada? As orientações para pais sobre o uso de smartphones e tablets por crianças menores de 12 anos é clara: eles devem ser usados pelas crianças em períodos restritos e assistidos pelos pais (SOCIEDADE BRASILEIRA DE PEDIATRIA, 2016). Os prejuízos do uso excessivo desses aparelhos conectados à internet por crianças são físicos, tais como perda de visão, perturbações do sono, etc., além de psicológicos (isolamento, oscilação de humor, etc.) (YOUNG; DE ABREU, 2011). Embora pesquisadores da neurociência e psicologia não conheçam claramente os mecanismos cerebrais e mentais responsáveis, muitos estudos têm encontrado evidências dos malefícios de tecnologias de comunicação na saúde física e mental das crianças e adolescente quando não usados de forma conscientes e, por isso, alertam sobre o bom uso desses equipamentos.

Façamos aqui também uma analogia com os robôs socioemocionais. Lembrando que eles detectam as nossas emoções e se adaptam para nos fornecer uma interação mais prazerosa. Isso sem a capacidade de empatia, de sentir a emoção do outro, mas com a habilidade de simulá-las, de agir como se as tivesse. Quais as implicações das interações com tais robôs socioemocionais em nossa saúde física e mental? Sabemos que a diversidade cultural tem efeitos positivos na produção e criatividade de empregados nos ambientes de trabalho, embora os conflitos resultantes podem ter alguns efeitos negativos (GUILLAUME et al., 2017). E qual seria o impacto de uma sociedade cuja interação social de humanos seria predominantemente com robôs criados para concordar e agradar? Difícil prever. Vale lembrar que a frustração de Martha começou quando ela se deu conta que o robô não a contrariava: “Ash não aceitaria. Ele não pularia”. Como a maioria das tecnologias que usamos, possivelmente, os efeitos serão positivos e negativos e dependerão da forma como as usamos. E muitos desses impactos apenas descobriremos quando essas tecnologias passarão a ser usadas de forma mais intensiva.

Outro aspecto diz respeito a se essas tecnologias entrarão em nossas vidas para ficar. Os roteiristas de Black Mirror deixaram bem clara a sua visão: no final, um brinquedo guardado no sótão, embora não fique explícito se é devido ao desinteresse de Martha ou a um receio em relação à essa nova tecnologia. No entanto, uma coisa ficou clara: a versão androide de Ash não o substituiu.

Temas como reengenharia reversa do cérebro, robôs socioemocionais, etc., estão saindo dos livros futuristas para virar tema de pesquisa (NATIONAL ACADEMY OF ENGINEERING, 2018). E muita discussão surge em relação a esses aspectos. Seria a consciência uma emergência de vários processos cognitivos no cérebro e por isso capazes de serem simulados (MINSKY, 2007)? Ou haveria um algo mais (uma alma), algo que nos diferencia da máquina e que não pode ser programado? Ainda, podemos nos perguntar serão essas máquinas iguais a nós? Elas irão nos substituir? Conseguiremos estabelecer com elas as mesmas interações de afeto que estabelecemos com outros humanos? Acredito que a resposta para essa pergunta depende da qualidade das interações que temos com outros humanos. Quanto mais rica, mais insubstituível.

A terceira questão que podemos nos perguntar é porque buscamos construir máquinas que nos assemelham. Quando não tínhamos a tecnologia necessária, esse assunto tomava conta da literatura de ficção científica (livros de Isamov), e nos filmes futuristas (21: uma odisseia no espaço, Her, etc.). Agora, eles fazem parte dos nossos interesses científicos. Apple Siri, Amazon Alexa e Google Duplex estão aí para mostrar que o futuro chegou.

Uma tarde, em junho de 2015, estava tão entusiasmada com a Siri (o agente conversacional da Apple) que perguntei a ela: “Siri, tu me amas como eu te amo?”, e a Siri me respondeu: “está procurando amor no lugar errado.” Eu me disse que essa é uma sábia resposta que os desenvolvedores da Siri programaram. Em dezembro de 2018 voltei a fazer a mesma pergunta, para a qual a Siri me respondeu: “Eu só sei que a cada dia que passa eu gosto mais de você.” Uma hora depois fiz a mesma pergunta e a Siri, para minha grande frustração, me deu a mesma resposta. O que será que a Siri será capaz de me responder nos próximos dias? Será ela capaz de “sentir” o que ela dirá? Às vezes, tenho a impressão de que essas interações com a Siri me ensinam mais sobre mim mesma (minhas expectativas, como eu reajo a certas situações, etc.) do que sobre a Siri. Seria para isso que buscamos criar máquinas tão parecidas conosco?

Agradecimentos

Um agradecimento especial ao meu esposo Nicolas Maillard e ao colega Tiago Kautzmann pelas revisões e críticas desse artigo. Também não posso deixar de agradecer ao Felipe Carvalho pelo sempre atencioso retorno em relação às minhas dúvidas sobre a revista e ao estilo do artigo.

Referências

ALTER, A. Irresistible: The rise of addictive technology and the business of keeping us hooked. [S.l.]: Penguin, 2017. [ Links ]

ARNOLD, M. B. Emotion and Personality: Psychological Aspects. New York: Columbia University Press, 1960. Disponível em: <https://www.amazon.com/Emotion-Personality-1-Psychological-Aspects/dp/0231089392>. Acesso em: 5 ago. 2019. [ Links ]

BOWER, G. H. Mood and memory. American Psychologist, v. 36, n. 2, p. 129-148, 1981. Disponível em: <http://doi.apa.org/getdoi.cfm?doi=10.1037/0003-066X.36.2.129>. Acesso em: 5 ago. 2019. [ Links ]

BRASIL. Ministério da Educação. Base Nacional Comum Curricular (BNCC). Disponível em: <http://basenacionalcomum.mec.gov.br>. Acesso em: 30 ago. 2017. [ Links ]

CALVO, R. A.; D’MELLO, S. K. Affect detection: An interdisciplinary review of models, methods, and their applications. IEEE Transactions on Affective Computing, v. 1, n. 1, p. 18-37, jan. 2010. Disponível em: <https://doi.org/10.1109/T-AFFC.2010.1>. Acesso em: 5 ago. 2019. [ Links ]

CASSELL, J. et al. Embodied Conversational Agents. [S.l.]: MIT Press, 2000. Disponível em: <https://books.google.com.br/books?id=tHiKZGh9t7sC>. (Embodied Conversational Agents). Acesso em: 5 ago. 2019. [ Links ]

CENTER FOR EDUCATION RESERCH AND INNOVATION (CERI); EDUCATION AND SOCIAL PROGRESS (ESP). Promovendo Competências Socioemocionais para o Progresso Social no Rio de Janeiro. OECD Paris. [S.l: s.n.], 2013. Disponível em: <http://educacaosec21.org.br/wp-content/uploads/2013/08/RioSynopses_Port_v3-2.pdf>. Acesso em: 5 ago. 2019. [ Links ]

CHANDLER, D. Is that smile real or fake? A computerized system developed at MIT can tell the difference between smiles of joy and smiles of frustration. MIT News, 2012. Disponível em: <http://news.mit.edu/2012/smile-detector-0525>. Acesso em: 5 ago. 2019. [ Links ]

CHATTING WITH A VIRTUAL AGENT: The SEMAINE Project Character Obadiah. Disponível em: <https://youtu.be/zruOPSSWVXw>. Acesso em: 2 dez. 2018. [ Links ]

CLARK, L. This creepy AI will talk to loved ones when you die and preserve your digital footprint. Wired Magazine, 2014. Disponível em: <https://www.wired.co.uk/article/eterni-life-after-death-ai>. Acesso em: 5 ago. 2019. [ Links ]

COWIE, R. Ethical Issues in Affective Computing. In: RAFAEL CALVO et al. (Org.). The Oxford Handbook of Affective Computing. Oxford: Oxford University Press, 2014. Disponível em: <http://doi.org/10.1093/oxfordhb/9780199942237.001.0001>. Acesso em: 5 ago. 2019. [ Links ]

D’MELLO, S. K.; GRAESSER, A. C. Multimodal semi-automated affect detection from conversational cues, gross body language, and facial features. User Modeling and User-Adapted Interaction, v. 20, n. 2, p. 147-187, 2010. Disponível em: <http://doi.org/10.1007/s11257-010-9074-4>. Acesso em: 5 ago. 2019. [ Links ]

DAMÁSIO, A. O erro de Descartes: Emoção, razão e o cérebro humano. São Paulo: Companhia das Letras, 2012. [ Links ]

DURLAK, J. A. et al. The Impact of Enhancing Students’ Social and Emotional Learning: A Meta-Analysis of School-Based Universal Interventions. Child Development, v. 82, n. 1, p. 405-432, 2011. [ Links ]

EKMAN, P. What is EMFACS and how can I obtain it? 2017. Disponível em: <http://www.paulekman.com/facs-faq/>. Acesso em: 3 ago. 2017. [ Links ]

ETERNIME. Disponível em: <http://eterni.me>. Acesso em: 2 dez. 2018. [ Links ]

FINLAY, S. We Should be as Scared of Artificial Intelligence as Elon Musk is. In: Fortune, 2017. Disponível em: <http://fortune.com/2017/08/18/elon-musk-artificial-intelligence-risk/>. Acesso em: 5 ago. 2019. [ Links ]

FORBES-RILEY, K.; LITMAN, D. J. Predicting emotion in spoken dialogue from multiple knowledge sources. Proceedings of the 4th Meeting of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, p. 201-208, 2004. Disponível em: <http://www.aclweb.org/anthology/N/N04/N04-1026.pdf>. Acesso em: 5 ago. 2019. [ Links ]

GROOM, V. et al. Evaluating the effects of behavioral realism in embodied agents. International Journal of Human-Computer Studies, v. 67, n. 10, p. 842-849, out. 2009. Disponível em: <http://linkinghub.elsevier.com/retrieve/pii/S1071581909000767>. Acesso em: 5 ago. 2019. [ Links ]

GUILLAUME, Y. R. F. et al. Harnessing demographic differences in organizations: What moderates the effects of workplace diversity? Journal of Organizational Behavior, v. 38, n. 2, p. 276-303, fev. 2017. Disponível em: <http://doi.wiley.com/10.1002/job.2040>. Acesso em: 5 ago. 2019. [ Links ]

HARE, R. D.; HART, S. D.; HARPUR, T. J. Psychopathy and the DSM-IV criteria for antisocial personality disorder. Journal of abnormal psychology, v. 100, n. 3, p. 391, 1991. [ Links ]

JAQUES, P. A. Avaliando um Modelo Afetivo de Aluno baseado em uma Abordagem Cognitiva. In: Simpósio Brasileiro de Informática na Educação, Fortaleza. Anais... Fortaleza: SBC, 2008. [ Links ]

JAQUES, P. A.; NUNES, M. A. S. N. Computação Afetiva aplicada à Educação. Informática na Educação: técnicas e tecnologias computacionais. Série Info ed. Porto Alegre: Sociedade Brasileira de Computação, 2019. Disponível em: <http://ieducacao.ceie-br.org/computacaoafetiva>. Acesso em: 5 ago. 2019. [ Links ]

KRAL, T. R. A. et al. Neural correlates of video game empathy training in adolescents: a randomized trial. npj Science of Learning, v. 3, n. 1, p. 13, 2018. Disponível em: <http://www.nature.com/articles/s41539-018-0029-6>. Acesso em: 5 ago. 2019. [ Links ]

KUGLER, L. AI judges and juries. Communications of the ACM, v. 61, n. 12, p. 19-21, 2018. Disponível em: <http://dl.acm.org/citation.cfm?doid=3293542.3283222>. Acesso em: 5 ago. 2019. [ Links ]

MACK, E. Bill Gates says you should worry about Artificial Intelligence. In: Forbes, 2015. Disponível em: <https://www.forbes.com/sites/ericmack/2015/01/28/bill-gates-also-worries-artificial-intelligence-is-a-threat/>. Acesso em: 5 ago. 2019. [ Links ]

MAYER, J. D.; COBB, C. D. Educational policy on Emotional Inteligence: Does it make sense? Educational Psychology Review, v. 12, n. 2, p. 163-183, 2000. Disponível em: <http://link.springer.com/10.1023/A:1009093231445>. Acesso em: 5 ago. 2019. [ Links ]

MCDUFF, D.; CZERWINSKI, M. Designing emotionally sentient agents. Communications of the ACM, v. 61, n. 12, p. 74-83, 2018. Disponível em: <http://dl.acm.org/citation.cfm?doid=3293542.3186591>. Acesso em: 5 ago. 2019. [ Links ]

MINSKY, M. The Emotion Machine: Commonsense Thinking, Artificial Intelligence, and the Future of the Human Mind. New York: Simon & Schuster, 2007. [ Links ]

MOORS, A. et al. Appraisal Theories of Emotion: State of the Art and Future Development. Emotion Review, v. 5, n. 2, p. 119-124, 20 abr. 2013. Disponível em: <http://emr.sagepub.com/cgi/doi/10.1177/1754073912468165>. Acesso em: 9 ago. 2013. [ Links ]

NATIONAL ACADEMY OF ENGINEERING. NAE Grand Challenges: Reverse-Engineer the Brain. Disponível em: <http://www.engineeringchallenges.org/challenges/9109.aspx>. Acesso em: 18 dez. 2018. [ Links ]

NATIONAL SCIENTIFIC COUNCIL ON THE DEVELOPING CHILD. Children’s Emotional Development Is Built into the Architecture of Their Brains: Working Paper 2. [S.l: s.n.], dez. 2004. Disponível em: <http://www.developingchild.net>. Acesso em: 5 ago. 2019. [ Links ]

OLIVEIRA, E. ; JAQUES, P. A. Classificação de emoções básicas através de imagens capturadas por webcam. Revista Brasileira de Computação Aplicada, v. 5, n. 2, 6 nov. 2013. Disponível em: <http://www.upf.br/seer/index.php/rbca/article/view/2807>. Acesso em: 5 ago. 2019. [ Links ]

ORTONY, A.; CLORE, G. L.; COLLINS, A. The Cognitive Structure of Emotions. Cambridge: Cambridge University Press, 1990. Disponível em: <http://books.google.com.br/books?id=dA3JEEAp6TsC>. Acesso em: 5 ago. 2019. [ Links ]

PENNEBAKER, J. W.; SEAGAL, J. D. Forming a story: The health benefits of narrative. Journal of Clinical Psychology, v. 55, n. 10, p. 1243-1254, out. 1999. Disponível em: <http://doi.wiley.com/10.1002/%28SICI%291097-4679%28199910%2955%3A10%3C1243%3A%3AAID-JCLP6%3E3.0.CO%3B2-N>. [ Links ]

PICARD, R. W.; VYZAS, E.; HEALEY, J. Toward machine emotional intelligence: Analysis of affective physiological state. IEEE Transactions on Pattern Analysis and Machine Intelligence, v. 23, n. 10, p. 1175-1191, 2001. Disponível em: <http://doi.org/10.1109/34.954607>. Acesso em: 5 ago. 2019. [ Links ]

PLANALTO GOVERNO. Lei 9.394, de 20 de Dezembro de 1996. Disponível em: <http://www.planalto.gov.br/ccivil_03/LEIS/L9394.htm>. Acesso em: 30 ago. 2017. [ Links ]

PONTAROLO, E. et al. Inferring Peer-Related Emotions in a Collaborative Learning Game. RENOTE - Revista Novas Tecnologias na Educação, v. 6, n. 2, 2008. Disponível em: <http://seer.ufrgs.br/index.php/renote/article/view/14447>. Acesso em: 5 ago. 2019. [ Links ]

PRICE, R. Stephen Hawking: This will be the impact of automation and AI on jobs. In: World Economic Forum, 2016. Disponível em: <https://www.weforum.org/agenda/2016/12/ stephen-hawking-this-will-be-the-impact-of-automation-and-ai-on-jobs>. Acesso em: 2 dez. 2018. [ Links ]

ROSENBERG, M.; CONFESSORE, N.; CADWALLADR, C. How Trump Consultants Exploited the Facebook Data of Millions. In: New York Times, 2018. [ Links ]

RUSSELL, S. J.; NORVIG, P. Artificial Intelligence: A Modern Approach. 2. ed. New Jersey: Prentice Hall, 2010. v. 11. [ Links ]

SANTOS, D.; PRIMI, R. Desenvolvimento socioemocional e aprendizado escolar: Uma proposta de mensuração para apoiar políticas públicas. Journal of Chemical Information and Modeling, v. 53, p. 160, 2014. [ Links ]

SCHERER, K. R. Appraisal theory. In: DALGLEISH, T.; POWER, M. (Org.). Handbook of Cognition and Emotion. New Jersey: John Wiley & Sons Ltd., 1999. p. 637-663. Disponível em: <http://doi.org/10.1002/0470013494>. Acesso em: 5 ago. 2019. [ Links ]

SCHERER, K. R. What are emotions? And how can they be measured? Social Science Information, v. 44, n. 4, p. 695-729, 29 dez. 2005. Disponível em: <http://journals.sagepub.com/doi/10.1177/0539018405058216>. Acesso em: 5 ago. 2019. [ Links ]

SOCIEDADE BRASILEIRA DE PEDIATRIA. Saúde de Crianças e Adolescentes na Era Digital. Manual de orientações, no 1. [S.l: s.n.], 2016. Disponível em: <http://www.sbp.com.br/fileadmin/user_upload/2016/11/19166d-MOrient-Saude-Crian-e-Adolesc.pdf>. Acesso em: 5 ago. 2019. [ Links ]

THE SEMAINE PROJECT. Disponível em: <http://www.semaine-project.eu>. Acesso em: 7 dez. 2018. [ Links ]

TURING, A. M. I.-Computing machinery and intelligence. Mind, v. LIX, n. 236, p. 433-460, 1950. Disponível em: <https://academic.oup.com/mind/article-lookup/doi/10.1093/mind/LIX.236.433>. Acesso em: 5 ago. 2019. [ Links ]

WALDEMAR, J. O. C. et al. Impact of a combined mindfulness and social-emotional learning program on fifth graders in a Brazilian public school setting. Psychology & Neuroscience, v. 9, n. 1, p. 79-90, 2016. Disponível em: <http://doi.apa.org/getdoi.cfm? doi=10.1037/pne0000044>. Acesso em: 5 ago. 2019. [ Links ]

WIGELSWORTH, M. et al. The impact of trial stage, developer involvement and international transferability on universal social and emotional learning programme outcomes: a meta-analysis. Cambridge Journal of Education, v. 46, n. 3, p. 347-376, 2016. Disponível em: <http://www.tandfonline.com/doi/full/10.1080/ 0305764X.2016.1195791>. Acesso em: 5 ago. 2019. [ Links ]

WILLIAMS-GRUT, O. Robots will steal your job: How AI could increase unemployment and inequality. 2016. Disponível em: <http://uk.businessinsider.com/robots-will-steal-your-job-citi-ai-increase-unemployment-inequality-2016-2>. Acesso em: 2 dez. 2018. [ Links ]

YOUNG, K. S.; DE ABREU, C. N. Dependência de Internet: Manual e Guia de Avaliação e Tratamento. Porto Alegre: Artmed Editora, 2011. [ Links ]

ZHOU, X.; CONATI, C. Inferring user goals from personality and behavior in a causal model of user affect. Intelligent User Interfaces, 2003. Proceedings… New York, USA: ACM Press, 2003. p. 211-218. Disponível em: <http://doi.org/10.1145/604045.604078>. Acesso em: 5 ago. 2019. [ Links ]

Recebido: 28 de Junho de 2019; Aceito: 22 de Agosto de 2019

Creative Commons License Este é um artigo publicado em acesso aberto sob uma licença Creative Commons