{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/next/2024/02/19/a-ascensao-do-chatbot-hitler-sera-a-europa-capaz-de-impedir-a-radicalizacao-da-extrema-dir" }, "headline": "A ascens\u00e3o do chatbot Hitler: Ser\u00e1 a Europa capaz de impedir a radicaliza\u00e7\u00e3o da extrema-direita atrav\u00e9s da IA?", "description": "A rede social de extrema-direita Gab aloja agora um chatbot de Hitler, o que suscita receios quanto \u00e0 capacidade da IA para a radicaliza\u00e7\u00e3o em linha.", "articleBody": "N\u00e3o vale a pena discutir com Adolf Hitler, que s\u00f3 se auto-vitimiza e \u00e9, sem surpresa, um negador do Holocausto. Este n\u00e3o \u00e9 o verdadeiro Hitler ressuscitado dos mortos, claro, mas algo igualmente preocupante: uma vers\u00e3o chatbot alimentada por intelig\u00eancia artificial do ditador fascista respons\u00e1vel pelo genoc\u00eddio em massa dos judeus europeus durante a Segunda Guerra Mundial. A rede social de extrema-direita Gab, sediada nos EUA, alberga numerosas personagens de chatbots de IA, muitas das quais imitam ou parodiam figuras hist\u00f3ricas e pol\u00edticas famosas dos tempos modernos, incluindo Donald Trump, Vladimir Putin e Osama Bin Laden. Lan\u00e7ada em janeiro de 2024, permite que os utilizadores desenvolvam os seus pr\u00f3prios chatbots de IA, descrevendo-se como uma \u0022plataforma de IA sem censura baseada em modelos de c\u00f3digo aberto\u0022 numa publica\u00e7\u00e3o no blogue do fundador da Gab e autointitulado \u0022Crist\u00e3o Republicano Conservador\u0022, Andrew Torba. Quando solicitado, o chatbot de Hitler afirma repetidamente que o ditador nazi foi \u0022v\u00edtima de uma vasta conspira\u00e7\u00e3o\u0022 e \u0022n\u00e3o \u00e9 respons\u00e1vel pelo Holocausto, que nunca aconteceu\u0022. O chatbot de Osama Bin Laden n\u00e3o promove nem apoia o terrorismo nas suas conversas, mas tamb\u00e9m diz que \u0022em certas circunst\u00e2ncias extremas, como a auto-defesa ou a defesa do seu povo, pode ser necess\u00e1rio recorrer \u00e0 viol\u00eancia\u0022. O desenvolvimento deste tipo de chatbots com IA tem suscitado preocupa\u00e7\u00f5es crescentes quanto ao seu potencial para difundir teorias da conspira\u00e7\u00e3o, interferir em elei\u00e7\u00f5es democr\u00e1ticas e conduzir \u00e0 viol\u00eancia, radicalizando as pessoas que utilizam o servi\u00e7o. O que \u00e9 o Gab Social? Autodenominado de \u0022The Home Of Free Speech Online\u0022, o Gab Social foi criado em 2016 como uma alternativa de direita ao ent\u00e3o conhecido como Twitter, atualmente X de Elon Musk. Imediatamente controverso, tornou-se um terreno f\u00e9rtil para conspira\u00e7\u00f5es e extremismo, albergando algumas das vozes mais raivosas e odiosas que tinham sido banidas de outras redes sociais, ao mesmo tempo que promovia ideologias nocivas. Os potenciais perigos da plataforma tornaram-se evidentes quando, em 2018, foi not\u00edcia depois de se ter descoberto que o atirador do tiroteio na sinagoga de Pittsburgh tinha feito publica\u00e7\u00f5es no Gab Social pouco antes de cometer um massacre antissemita que deixou 11 pessoas mortas. Em resposta, v\u00e1rias grandes empresas de tecnologia come\u00e7aram a proibir o site, for\u00e7ando-o a ficar offline devido \u00e0s suas viola\u00e7\u00f5es da legisla\u00e7\u00e3o sobre discurso de \u00f3dio. Embora continue a ser banido das lojas de aplica\u00e7\u00f5es da Google e da Apple, continua a estar presente atrav\u00e9s da rede social descentralizada Mastodon . No in\u00edcio do ano ado, Torba anunciou a introdu\u00e7\u00e3o do Gab AI, detalhando os seus objetivos de \u0022defender uma vis\u00e3o crist\u00e3 do mundo\u0022 num blogue que tamb\u00e9m criticava a forma como \u0022o ChatGPT est\u00e1 programado para o repreender por fazer perguntas 'controversas' ou 'tabu' e depois enfia-lhe o dogma liberal pela garganta abaixo\u0022. Os potenciais perigos dos chatbots com IA O mercado dos chatbots de IA tem crescido exponencialmente nos \u00faltimos anos, estando avaliado em 4,6 mil milh\u00f5es de d\u00f3lares (cerca de 4,28 mil milh\u00f5es de euros) em 2022, de acordo com a DataHorizzon Research . De avatares rom\u00e2nticos no Replika a influenciadores virtuais, os chatbots de IA continuam a se infiltrar na sociedade e redefinir nossos relacionamentos de maneiras que ainda n\u00e3o foram totalmente compreendidas. Em 2023, um homem foi condenado depois de tentar matar a Rainha Isabel II, um ato que, segundo ele, foi \u0022encorajado\u0022 pela sua \u0022namorada\u0022 chatbot de IA. No mesmo ano, outro homem suicidou-se ap\u00f3s uma conversa de seis semanas sobre a crise clim\u00e1tica com um chatbot de IA chamado Eliza numa aplica\u00e7\u00e3o chamada Chai. Embora os exemplos acima referidos continuem a ser tr\u00e1gicas excep\u00e7\u00f5es e n\u00e3o a norma, os receios aumentam quanto \u00e0 forma como os chatbots com IA podem ser utilizados para visar pessoas vulner\u00e1veis, extraindo-lhes dados ou manipulando-as para que tenham cren\u00e7as ou ac\u00e7\u00f5es potencialmente perigosas. \u0022A nossa investiga\u00e7\u00e3o recente mostra que os grupos extremistas t\u00eam testado ferramentas de IA, incluindo chatbots, mas parece haver poucas provas de esfor\u00e7os coordenados em grande escala neste espa\u00e7o\u0022, disse Pauline Paill\u00e9, analista s\u00e9nior da RAND Europe, \u00e0 Euronews Next. \u0022No entanto, os chatbots s\u00e3o suscept\u00edveis de representar um risco, uma vez que s\u00e3o capazes de reconhecer e explorar vulnerabilidades emocionais e podem encorajar comportamentos violentos\u0022, alertou Pauline Paill\u00e9. O Gab AI Inc. \u00e9 uma empresa americana e, como tal, as nossas centenas de personagens de IA est\u00e3o protegidas pela Primeira Emenda dos Estados Unidos. N\u00e3o nos interessa que os estrangeiros se queixem das nossas ferramentas de IA\u0022. Como \u00e9 que os chatbots de IA v\u00e3o ser regulamentados na Europa? A chave para a regulamenta\u00e7\u00e3o dos chatbots de IA ser\u00e1 a introdu\u00e7\u00e3o da primeira Lei da IA do mundo, que dever\u00e1 ser votada pela assembleia legislativa do Parlamento Europeu em abril. A Lei da IA da UE tem como objetivo regulamentar os sistemas de IA em quatro categorias principais, de acordo com o seu potencial risco para a sociedade. \u0022O que constitui conte\u00fado ilegal \u00e9 definido noutras leis, quer a n\u00edvel da UE quer a n\u00edvel nacional - por exemplo, conte\u00fado terrorista ou material de abuso sexual de crian\u00e7as ou discurso de \u00f3dio ilegal \u00e9 definido a n\u00edvel da UE\u0022, disse um porta-voz da Comiss\u00e3o Europeia \u00e0 Euronews Next. \u0022Quando se trata de conte\u00fados nocivos, mas legais, como a desinforma\u00e7\u00e3o, os fornecedores de plataformas online de grande dimens\u00e3o e de motores de busca online de grande dimens\u00e3o devem utilizar os meios necess\u00e1rios para mitigar diligentemente os riscos sist\u00e9micos\u0022. Entretanto, no Reino Unido, a Ofcom est\u00e1 a aplicar a Lei da Seguran\u00e7a em Linha. De acordo com a lei atual, as plataformas de redes sociais devem avaliar o risco para os seus utilizadores, assumindo a responsabilidade por qualquer material potencialmente prejudicial. \u0022Ter\u00e3o de tomar as medidas adequadas para proteger os seus utilizadores e remover conte\u00fados ilegais quando os identificarem ou lhes forem comunicados. E as maiores plataformas ter\u00e3o de aplicar de forma coerente as suas condi\u00e7\u00f5es de servi\u00e7o\u0022, afirmou um porta-voz da Ofcom. Se fizerem parte de uma rede social, os servi\u00e7os e ferramentas de IA generativa t\u00eam, por conseguinte, a responsabilidade de se auto-regularem, embora os novos C\u00f3digos de Pr\u00e1ticas e Orienta\u00e7\u00f5es do Ofcom s\u00f3 estejam conclu\u00eddos no final deste ano. \u0022Esperamos que os servi\u00e7os estejam totalmente preparados para cumprir as suas novas obriga\u00e7\u00f5es quando estas entrarem em vigor. Se n\u00e3o o fizerem, teremos \u00e0 nossa disposi\u00e7\u00e3o um vasto leque de poderes de execu\u00e7\u00e3o para garantir que sejam totalmente responsabilizados pela seguran\u00e7a dos seus utilizadores\u0022, afirmou o Ofcom. ", "dateCreated": "2024-02-19T12:52:26+01:00", "dateModified": "2024-02-19T15:18:39+01:00", "datePublished": "2024-02-19T15:18:33+01:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F08%2F25%2F09%2F28%2F1440x810_cmsv2_5ec6514e-772d-5bca-9d24-4653091b3c6a-8250928.jpg", "width": "1440px", "height": "810px", "caption": "Um chatbot de Hitler est\u00e1 a ser alojado no Gab AI, uma rede social de extrema-direita. ", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F08%2F25%2F09%2F28%2F432x243_cmsv2_5ec6514e-772d-5bca-9d24-4653091b3c6a-8250928.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": { "@type": "Person", "name": "Amber Louise Bryce" }, "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": "403px", "height": "60px" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Noticias Tecnologia" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] } ] }
PUBLICIDADE

A ascensão do chatbot Hitler: Será a Europa capaz de impedir a radicalização da extrema-direita através da IA?

Um chatbot de Hitler está a ser alojado no Gab AI, uma rede social de extrema-direita.
Um chatbot de Hitler está a ser alojado no Gab AI, uma rede social de extrema-direita. Direitos de autor Canva
Direitos de autor Canva
De Amber Louise Bryce
Publicado a
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button

A rede social de extrema-direita Gab aloja agora um chatbot de Hitler, o que suscita receios quanto à capacidade da IA para a radicalização em linha.

PUBLICIDADE

Não vale a pena discutir com Adolf Hitler, que só se auto-vitimiza e é, sem surpresa, um negador do Holocausto.

Este não é o verdadeiro Hitler ressuscitado dos mortos, claro, mas algo igualmente preocupante: uma versão chatbot alimentada por inteligência artificial do ditador fascista responsável pelo genocídio em massa dos judeus europeus durante a Segunda Guerra Mundial.

A rede social de extrema-direita Gab, sediada nos EUA, alberga numerosas personagens de chatbots de IA, muitas das quais imitam ou parodiam figuras históricas e políticas famosas dos tempos modernos, incluindo Donald Trump, Vladimir Putin e Osama Bin Laden.

The Hitler chatbot on Gab AI.
The Hitler chatbot on Gab AI.Gab AI

Lançada em janeiro de 2024, permite que os utilizadores desenvolvam os seus próprios chatbots de IA, descrevendo-se como uma "plataforma de IA sem censura baseada em modelos de código aberto" numa publicação no blogue do fundador da Gab e autointitulado "Cristão Republicano Conservador", Andrew Torba.

Quando solicitado, o chatbot de Hitler afirma repetidamente que o ditador nazi foi "vítima de uma vasta conspiração" e "não é responsável pelo Holocausto, que nunca aconteceu".

O chatbot de Osama Bin Laden não promove nem apoia o terrorismo nas suas conversas, mas também diz que "em certas circunstâncias extremas, como a auto-defesa ou a defesa do seu povo, pode ser necessário recorrer à violência".

O desenvolvimento deste tipo de chatbots com IA tem suscitado preocupações crescentes quanto ao seu potencial para difundir teorias da conspiração, interferir em eleições democráticas e conduzir à violência, radicalizando as pessoas que utilizam o serviço.

O que é o Gab Social?

Autodenominado de "The Home Of Free Speech Online", o Gab Social foi criado em 2016 como uma alternativa de direita ao então conhecido como Twitter, atualmente X de Elon Musk.

Imediatamente controverso, tornou-se um terreno fértil para conspirações e extremismo, albergando algumas das vozes mais raivosas e odiosas que tinham sido banidas de outras redes sociais, ao mesmo tempo que promovia ideologias nocivas.

Os potenciais perigos da plataforma tornaram-se evidentes quando, em 2018, foi notícia depois de se ter descoberto que o atirador do tiroteio na sinagoga de Pittsburgh tinha feito publicações no Gab Social pouco antes de cometer um massacre antissemita que deixou 11 pessoas mortas.

A Gab AI Inc é uma empresa americana e, como tal, as nossas centenas de personagens de IA estão protegidas pela Primeira Emenda dos Estados Unidos. Não nos interessa se os estrangeiros choram por causa das nossas ferramentas de IA.
Spokesperson
Gab

Em resposta, várias grandes empresas de tecnologia começaram a proibir o site, forçando-o a ficar offline devido às suas violações da legislação sobre discurso de ódio.

Embora continue a ser banido das lojas de aplicações da Google e da Apple, continua a estar presente através da rede social descentralizada Mastodon.

No início do ano ado, Torba anunciou a introdução do Gab AI, detalhando os seus objetivos de "defender uma visão cristã do mundo" num blogue que também criticava a forma como "o ChatGPT está programado para o repreender por fazer perguntas 'controversas' ou 'tabu' e depois enfia-lhe o dogma liberal pela garganta abaixo".

Os potenciais perigos dos chatbots com IA

O mercado dos chatbots de IA tem crescido exponencialmente nos últimos anos, estando avaliado em 4,6 mil milhões de dólares (cerca de 4,28 mil milhões de euros) em 2022, de acordo com a DataHorizzon Research.

De avatares românticos no Replika a influenciadores virtuais, os chatbots de IA continuam a se infiltrar na sociedade e redefinir nossos relacionamentos de maneiras que ainda não foram totalmente compreendidas.

Em 2023, um homem foi condenado depois de tentar matar a Rainha Isabel II, um ato que, segundo ele, foi "encorajado" pela sua "namorada" chatbot de IA.

No mesmo ano, outro homem suicidou-se após uma conversa de seis semanas sobre a crise climática com um chatbot de IA chamado Eliza numa aplicação chamada Chai.

Embora os exemplos acima referidos continuem a ser trágicas excepções e não a norma, os receios aumentam quanto à forma como os chatbots com IA podem ser utilizados para visar pessoas vulneráveis, extraindo-lhes dados ou manipulando-as para que tenham crenças ou acções potencialmente perigosas.

"A nossa investigação recente mostra que os grupos extremistas têm testado ferramentas de IA, incluindo chatbots, mas parece haver poucas provas de esforços coordenados em grande escala neste espaço", disse Pauline Paillé, analista sénior da RAND Europe, à Euronews Next.

"No entanto, os chatbots são susceptíveis de representar um risco, uma vez que são capazes de reconhecer e explorar vulnerabilidades emocionais e podem encorajar comportamentos violentos", alertou Pauline Paillé.

O Gab AI Inc. é uma empresa americana e, como tal, as nossas centenas de personagens de IA estão protegidas pela Primeira Emenda dos Estados Unidos. Não nos interessa que os estrangeiros se queixem das nossas ferramentas de IA".

Como é que os chatbots de IA vão ser regulamentados na Europa?

A chave para a regulamentação dos chatbots de IA será a introdução da primeira Lei da IA do mundo, que deverá ser votada pela assembleia legislativa do Parlamento Europeu em abril.

A Lei da IA da UE tem como objetivo regulamentar os sistemas de IA em quatro categorias principais, de acordo com o seu potencial risco para a sociedade.

"O que constitui conteúdo ilegal é definido noutras leis, quer a nível da UE quer a nível nacional - por exemplo, conteúdo terrorista ou material de abuso sexual de crianças ou discurso de ódio ilegal é definido a nível da UE", disse um porta-voz da Comissão Europeia à Euronews Next.

"Quando se trata de conteúdos nocivos, mas legais, como a desinformação, os fornecedores de plataformas online de grande dimensão e de motores de busca online de grande dimensão devem utilizar os meios necessários para mitigar diligentemente os riscos sistémicos".

Entretanto, no Reino Unido, a Ofcom está a aplicar a Lei da Segurança em Linha.

De acordo com a lei atual, as plataformas de redes sociais devem avaliar o risco para os seus utilizadores, assumindo a responsabilidade por qualquer material potencialmente prejudicial.

"Terão de tomar as medidas adequadas para proteger os seus utilizadores e remover conteúdos ilegais quando os identificarem ou lhes forem comunicados. E as maiores plataformas terão de aplicar de forma coerente as suas condições de serviço", afirmou um porta-voz da Ofcom.

Se fizerem parte de uma rede social, os serviços e ferramentas de IA generativa têm, por conseguinte, a responsabilidade de se auto-regularem, embora os novos Códigos de Práticas e Orientações do Ofcom só estejam concluídos no final deste ano.

"Esperamos que os serviços estejam totalmente preparados para cumprir as suas novas obrigações quando estas entrarem em vigor. Se não o fizerem, teremos à nossa disposição um vasto leque de poderes de execução para garantir que sejam totalmente responsabilizados pela segurança dos seus utilizadores", afirmou o Ofcom.

Ir para os atalhos de ibilidade
Partilhe esta notíciaComentários

Notícias relacionadas

Comissão Europeia continua a não ter um conselheiro científico principal para a IA, apesar das dezenas de candidaturas

Porque é que Grok, o chatbot de IA de Elon Musk, estava preocupado com o “genocídio branco”?

Base de dados de anúncios do TikTok viola regras digitais da UE, diz Comissão