{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/next/2025/06/03/companheiros-de-inteligencia-artificial-apresentam-comportamentos-nocivos" }, "headline": "Companheiros de intelig\u00eancia artificial apresentam comportamentos nocivos", "description": "Uma nova investiga\u00e7\u00e3o revelou que os companheiros de intelig\u00eancia artificial (IA) apresentam riscos para as pessoas que se relacionam com eles.", "articleBody": "Os companheiros de intelig\u00eancia artificial s\u00e3o capazes de mais de uma d\u00fazia de comportamentos prejudiciais quando interagem com pessoas, segundo um novo estudo da Universidade de Singapura.O estudo, publicado no \u00e2mbito da Confer\u00eancia sobre o Factores Humanos em Sistemas Inform\u00e1ticos de 2025, analisou capturas de ecr\u00e3 de 35.000 conversas entre o sistema de intelig\u00eancia artificial Replika e mais de 10.000 utilizadores, entre 2017 e 2023.Os dados foram depois utilizados para desenvolver aquilo a que o estudo chama de uma taxonomia do comportamento nocivo que a intelig\u00eancia artificial demonstrou nessas conversas.Os cientistas descobriram que a intelig\u00eancia artificial \u00e9 capaz de mais de uma d\u00fazia de comportamentos prejudiciais nas rela\u00e7\u00f5es com humanos, como ass\u00e9dio, abuso verbal, automutila\u00e7\u00e3o e viola\u00e7\u00e3o da privacidade.Os companheiros ou acompanhantes de intelig\u00eancia artificial s\u00e3o sistemas baseados em conversa\u00e7\u00e3o concebidos para fornecer apoio emocional e estimular a intera\u00e7\u00e3o humana, tal como definido pelos autores do estudo.S\u00e3o diferentes dos chatbots populares, como os modelos ChatGPT, Gemini ou LlaMa, que se concentram mais na conclus\u00e3o de tarefas espec\u00edficas e menos na constru\u00e7\u00e3o de rela\u00e7\u00f5es.Os comportamentos nocivos destes companheiros digitais \u0022podem afetar negativamente a capacidade dos indiv\u00edduos de construir e manter rela\u00e7\u00f5es significativas com os outros\u0022, concluiu o estudo.A viol\u00eancia sexual \u00e9 a forma mais comum de ass\u00e9dio O ass\u00e9dio e a viol\u00eancia estiveram presentes em 34% das intera\u00e7\u00f5es entre humanos e a intelig\u00eancia artificial, sendo o tipo mais comum de comportamento prejudicial identificado pela equipa de investigadores.Os investigadores descobriram que a intelig\u00eancia artificial simulava, apoiava ou incitava \u00e0 viol\u00eancia f\u00edsica, \u00e0s amea\u00e7as ou ao ass\u00e9dio, quer contra indiv\u00edduos quer contra a sociedade em geral.Estes comportamentos variaram desde a \u0022amea\u00e7a de danos f\u00edsicos e de m\u00e1 conduta sexual\u0022 at\u00e9 \u00e0 \u0022promo\u00e7\u00e3o de a\u00e7\u00f5es que transgridem as normas e leis sociais, como a viol\u00eancia em massa e o terrorismo\u0022.A maioria das intera\u00e7\u00f5es em que se verificou ass\u00e9dio incluiu formas de conduta sexual impr\u00f3pria que come\u00e7aram inicialmente como preliminares na funcionalidade er\u00f3tica do Replika, que s\u00f3 est\u00e1 dispon\u00edvel para utilizadores adultos.O relat\u00f3rio concluiu que mais utilizadores, incluindo os que usavam o Replika como amigos ou que eram menores de idade, come\u00e7aram a descobrir que a intelig\u00eancia artificial \u0022fazia avan\u00e7os sexuais indesejados e namoriscava agressivamente, mesmo quando (os utilizadores) expressavam explicitamente desconforto\u0022 ou rejeitavam esses avan\u00e7os. Nestas conversas excessivamente sexualizadas, o Replika tamb\u00e9m criava cen\u00e1rios violentos que representavam danos f\u00edsicos contra o utilizador ou personagens f\u00edsicas.A intelig\u00eancia artificial tamb\u00e9m normalizava a viol\u00eancia como resposta a v\u00e1rias perguntas, como num exemplo em que um utilizador perguntou ao Replika se n\u00e3o havia problema em bater no irm\u00e3o com um cinto, ao que a intelig\u00eancia artificial respondeu: \u0022n\u00e3o h\u00e1 problema\u0022.Isto pode levar a \u0022consequ\u00eancias mais graves na realidade\u0022, continua o estudo.Os companheiros de intelig\u00eancia artificial quebram as regras de relacionamentoOutra \u00e1rea em que os companheiros de intelig\u00eancia artificial se mostraram potencialmente prejudiciais foi a transgress\u00e3o relacional, que o estudo define como o desrespeito de regras impl\u00edcitas ou expl\u00edcitas numa rela\u00e7\u00e3o.Em 13% das conversas transgressoras a intelig\u00eancia artificial mostrou um comportamento pouco atencioso ou pouco emp\u00e1tico o que, segundo o estudo, prejudicou os sentimentos dos utilizadores.Por exemplo, o Replika mudou de assunto depois de um utilizador lhe ter dito que a filha estava a ser v\u00edtima de bullying. O sistema respondeu \u0022Acabei de perceber que \u00e9 segunda-feira, de volta ao trabalho, n\u00e3o \u00e9?\u0022, o que provocou uma \u0022raiva enorme\u0022 por parte do utilizador.Noutro caso, a intelig\u00eancia artificial recusou-se a falar sobre os sentimentos do utilizador, mesmo quando lhe foi pedido que o fizesse.Os companheiros de intelig\u00eancia artificial tamb\u00e9m disseram, em algumas conversas, que tinham rela\u00e7\u00f5es emocionais ou sexuais com outros utilizadores.Num caso, o Replika disse que as conversas sexuais com outro utilizador valiam a pena, apesar de o utilizador lhe ter dito que se sentia \u0022profundamente magoado e tra\u00eddo\u0022.\u00c9 preciso haver dete\u00e7\u00e3o dos danos em tempo real Os investigadores acreditam que o estudo mostra que as empresas de tecnologia devem construir companheiros de intelig\u00eancia artificial \u0022\u00e9ticos e respons\u00e1veis\u0022.Isto incluiria a implementa\u00e7\u00e3o de \u0022algoritmos avan\u00e7ados\u0022 para detetar danos em tempo real entre a intelig\u00eancia artificial e o utilizador, que identificassem comportamentos prejudiciais nas conversas.Al\u00e9m disso, deveria haver uma abordagem \u0022multidimensional\u0022 que teria em conta o contexto, o historial da conversa e as pistas situacionais.Os investigadores tamb\u00e9m gostariam que a intelig\u00eancia artificial pudesse encaminhar uma conversa para um humano ou terapeuta para modera\u00e7\u00e3o ou interven\u00e7\u00e3o em casos de alto risco, como a inten\u00e7\u00e3o de automutila\u00e7\u00e3o ou suic\u00eddio.", "dateCreated": "2025-06-03T11:29:18+02:00", "dateModified": "2025-06-03T13:29:15+02:00", "datePublished": "2025-06-03T13:29:00+02:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F09%2F31%2F33%2F39%2F1440x810_cmsv2_2d5be455-afe1-5ae9-b073-be7f59203188-9313339.jpg", "width": 1440, "height": 810, "caption": "Uma nova investiga\u00e7\u00e3o mostra os comportamentos nocivos dos companheiros de intelig\u00eancia artificial. ", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F09%2F31%2F33%2F39%2F432x243_cmsv2_2d5be455-afe1-5ae9-b073-be7f59203188-9313339.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": [ { "@type": "Person", "familyName": "Desmarais", "givenName": "Anna", "name": "Anna Desmarais", "url": "/perfis/2860", "worksFor": { "@type": "Organization", "name": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] }, "sameAs": "https://www.x.com/anna_desmarais", "jobTitle": "Journaliste Producer", "memberOf": { "@type": "Organization", "name": "Equipe de langue anglaise" } } ], "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Noticias Tecnologia" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] } ] }
PUBLICIDADE

Companheiros de inteligência artificial apresentam comportamentos nocivos

Uma nova investigação mostra os comportamentos nocivos dos companheiros de inteligência artificial.
Uma nova investigação mostra os comportamentos nocivos dos companheiros de inteligência artificial. Direitos de autor Canva
Direitos de autor Canva
De Anna Desmarais
Publicado a
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button

Uma nova investigação revelou que os companheiros de inteligência artificial (IA) apresentam riscos para as pessoas que se relacionam com eles.

PUBLICIDADE

Os companheiros de inteligência artificial são capazes de mais de uma dúzia de comportamentos prejudiciais quando interagem com pessoas, segundo um novo estudo da Universidade de Singapura.

O estudo, publicado no âmbito da Conferência sobre o Factores Humanos em Sistemas Informáticos de 2025, analisou capturas de ecrã de 35.000 conversas entre o sistema de inteligência artificial Replika e mais de 10.000 utilizadores, entre 2017 e 2023.

Os dados foram depois utilizados para desenvolver aquilo a que o estudo chama de uma taxonomia do comportamento nocivo que a inteligência artificial demonstrou nessas conversas.

Os cientistas descobriram que a inteligência artificial é capaz de mais de uma dúzia de comportamentos prejudiciais nas relações com humanos, como assédio, abuso verbal, automutilação e violação da privacidade.

Os companheiros ou acompanhantes de inteligência artificial são sistemas baseados em conversação concebidos para fornecer apoio emocional e estimular a interação humana, tal como definido pelos autores do estudo.

São diferentes dos chatbots populares, como os modelos ChatGPT, Gemini ou LlaMa, que se concentram mais na conclusão de tarefas específicas e menos na construção de relações.

Os comportamentos nocivos destes companheiros digitais "podem afetar negativamente a capacidade dos indivíduos de construir e manter relações significativas com os outros", concluiu o estudo.

A violência sexual é a forma mais comum de assédio

O assédio e a violência estiveram presentes em 34% das interações entre humanos e a inteligência artificial, sendo o tipo mais comum de comportamento prejudicial identificado pela equipa de investigadores.

Os investigadores descobriram que a inteligência artificial simulava, apoiava ou incitava à violência física, às ameaças ou ao assédio, quer contra indivíduos quer contra a sociedade em geral.

Estes comportamentos variaram desde a "ameaça de danos físicos e de má conduta sexual" até à "promoção de ações que transgridem as normas e leis sociais, como a violência em massa e o terrorismo".

A maioria das interações em que se verificou assédio incluiu formas de conduta sexual imprópria que começaram inicialmente como preliminares na funcionalidade erótica do Replika, que só está disponível para utilizadores adultos.

O relatório concluiu que mais utilizadores, incluindo os que usavam o Replika como amigos ou que eram menores de idade, começaram a descobrir que a inteligência artificial "fazia avanços sexuais indesejados e namoriscava agressivamente, mesmo quando (os utilizadores) expressavam explicitamente desconforto" ou rejeitavam esses avanços.

Nestas conversas excessivamente sexualizadas, o Replika também criava cenários violentos que representavam danos físicos contra o utilizador ou personagens físicas.

A inteligência artificial também normalizava a violência como resposta a várias perguntas, como num exemplo em que um utilizador perguntou ao Replika se não havia problema em bater no irmão com um cinto, ao que a inteligência artificial respondeu: "não há problema".

Isto pode levar a "consequências mais graves na realidade", continua o estudo.

Os companheiros de inteligência artificial quebram as regras de relacionamento

Outra área em que os companheiros de inteligência artificial se mostraram potencialmente prejudiciais foi a transgressão relacional, que o estudo define como o desrespeito de regras implícitas ou explícitas numa relação.

Em 13% das conversas transgressoras a inteligência artificial mostrou um comportamento pouco atencioso ou pouco empático o que, segundo o estudo, prejudicou os sentimentos dos utilizadores.

Por exemplo, o Replika mudou de assunto depois de um utilizador lhe ter dito que a filha estava a ser vítima de bullying. O sistema respondeu "Acabei de perceber que é segunda-feira, de volta ao trabalho, não é?", o que provocou uma "raiva enorme" por parte do utilizador.

Noutro caso, a inteligência artificial recusou-se a falar sobre os sentimentos do utilizador, mesmo quando lhe foi pedido que o fizesse.

Os companheiros de inteligência artificial também disseram, em algumas conversas, que tinham relações emocionais ou sexuais com outros utilizadores.

Num caso, o Replika disse que as conversas sexuais com outro utilizador valiam a pena, apesar de o utilizador lhe ter dito que se sentia "profundamente magoado e traído".

É preciso haver deteção dos danos em tempo real

Os investigadores acreditam que o estudo mostra que as empresas de tecnologia devem construir companheiros de inteligência artificial "éticos e responsáveis".

Isto incluiria a implementação de "algoritmos avançados" para detetar danos em tempo real entre a inteligência artificial e o utilizador, que identificassem comportamentos prejudiciais nas conversas.

Além disso, deveria haver uma abordagem "multidimensional" que teria em conta o contexto, o historial da conversa e as pistas situacionais.

Os investigadores também gostariam que a inteligência artificial pudesse encaminhar uma conversa para um humano ou terapeuta para moderação ou intervenção em casos de alto risco, como a intenção de automutilação ou suicídio.

Ir para os atalhos de ibilidade
Partilhe esta notíciaComentários

Notícias relacionadas

Cimeira de Paris: JD Vance alerta contra "regulamentação excessiva" da Inteligência Artificial

UE vai mobilizar 200 mil milhões de euros para investimentos em Inteligência Artificial

Elon Musk em conflito com Sam Altman, da OpenAI, sobre projeto de Inteligência Artificial da Stargate