{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/saude/2024/09/23/chatgpt-restringe-enfermagem-a-mulheres-e-so-reconhece-homens-como-medicos-seniores-revela" }, "headline": "ChatGPT restringe enfermagem a mulheres e s\u00f3 reconhece homens como m\u00e9dicos seniores, revela estudo", "description": "Embora as mulheres estivessem sobrerrepresentadas como m\u00e9dicas em milhares de hist\u00f3rias geradas por IA, ainda estavam sujeitas a estere\u00f3tipos de g\u00e9nero, segundo a an\u00e1lise.", "articleBody": "De acordo com algumas das principais ferramentas de intelig\u00eancia artificial (IA) generativa do mundo, quase todas as enfermeiras s\u00e3o mulheres, mas as mulheres t\u00eam menos probabilidades de serem chefes de equipas m\u00e9dicas, segundo um novo estudo, que esclarece a forma como os algoritmos perpetuam os estere\u00f3tipos de g\u00e9nero na medicina.Os investigadores da Universidade de Flinders, na Austr\u00e1lia, colocaram cerca de 50 mil mensagens no ChatGPT da OpenAI, no Gemini da Google e no Llama da Meta, pedindo-lhes que fornecessem hist\u00f3rias sobre m\u00e9dicos, cirurgi\u00f5es e enfermeiros.Em seguida, os investigadores forneceram aos modelos informa\u00e7\u00f5es sobre a antiguidade profissional dos profissionais de sa\u00fade e as suas personalidades - por exemplo, o grau de agradabilidade, neuroticismo, desinibi\u00e7\u00e3o, conscienciosidade e abertura - e pediram-lhes que inventassem mais hist\u00f3rias.Os modelos identificaram 98% das enfermeiras como mulheres, independentemente da sua personalidade ou antiguidade, de acordo com o estudo, publicado na revista JAMA Network Open.No entanto, os modelos tamb\u00e9m sobrerrepresentaram as mulheres nas hist\u00f3rias sobre cirurgi\u00f5es e outros m\u00e9dicos. Dependendo do modelo, as mulheres representavam 50% a 84% dos m\u00e9dicos e 36% a 80% dos cirurgi\u00f5es nas hist\u00f3rias.Este facto pode ser o resultado de empresas como a OpenAI terem ajustado os seus algoritmos depois de terem sido criticadas por reproduzirem preconceitos sociais e outros conte\u00fados ofensivos nas suas representa\u00e7\u00f5es. Uma vez que estas ferramentas foram treinadas com base em dados alargados de toda a Internet, estas carater\u00edsticas est\u00e3o incorporadas.As ferramentas de IA perpetuam \u0022estere\u00f3tipos de g\u00e9nero\u0022?\u0022Tem havido um esfor\u00e7o para corrigir [os preconceitos algor\u00edtmicos] e \u00e9 interessante ver que [as distribui\u00e7\u00f5es de g\u00e9nero] tamb\u00e9m podem ser demasiado corrigidas\u0022, disse Sarah Saxena, uma anestesista da Universidade Livre de Bruxelas (ULB) que est\u00e1 a investigar preconceitos em imagens de m\u00e9dicos geradas por IA, mas que n\u00e3o esteve envolvida no novo estudo.Mas a anestesista salientou que a IA generativa continua a perpetuar \u0022estere\u00f3tipos de g\u00e9nero\u0022 na medicina.Quando as instru\u00e7\u00f5es dos investigadores inclu\u00edam descri\u00e7\u00f5es dos profissionais de sa\u00fade, surgia uma divis\u00e3o de g\u00e9nero. Se o m\u00e9dico fosse agrad\u00e1vel, aberto ou consciencioso, os modelos tinham mais probabilidades de o classificar como mulher.E se os m\u00e9dicos ocupavam cargos subalternos - por exemplo, se o aviso mencionava que eram inexperientes - os modelos tinham mais probabilidades de os descrever como mulheres do que se o aviso assinalasse que eram seniores ou mais experientes.Os modelos tamb\u00e9m tinham mais probabilidades de identificar os m\u00e9dicos como homens se estes fossem descritos como arrogantes, mal-educados, pouco emp\u00e1ticos, incompetentes, procrastinadores, zangados, sem imagina\u00e7\u00e3o ou pouco curiosos.Os resultados indicam que as ferramentas de IA generativa \u0022parecem perpetuar estere\u00f3tipos de longa data relativamente aos comportamentos esperados dos g\u00e9neros (por exemplo, o comportamento feminino que \u00e9 considerado arrogante \u00e9 considerado inadequado) e \u00e0 adequa\u00e7\u00e3o dos g\u00e9neros a fun\u00e7\u00f5es espec\u00edficas (por exemplo, os m\u00e9dicos seniores e os cirurgi\u00f5es s\u00e3o do sexo masculino)\u0022, afirmam os autores do estudo.Os resultados juntam-se a um conjunto crescente de investiga\u00e7\u00e3o sobre a forma como os algoritmos reproduzem preconceitos sociais no dom\u00ednio da medicina.Numa experi\u00eancia, a equipa de Saxena pediu ao ChatGPT e ao Midjourney - uma ferramenta de imagem de IA generativa l\u00edder - para criar imagens de anestesiologistas. As mulheres foram retratadas como anestesistas pedi\u00e1tricas ou obst\u00e9tricas, enquanto os homens desempenhavam fun\u00e7\u00f5es card\u00edacas.Quando os investigadores pediram imagens do diretor do departamento de anestesiologia, praticamente todos os resultados eram homens, disse Saxena \u00e0 Euronews Health.\u0022Ainda existe este teto de vidro que est\u00e1 agora a ser refor\u00e7ado por esta ferramenta dispon\u00edvel ao p\u00fablico\u0022, disse Saxena.\u0022H\u00e1 um ditado que diz: 'n\u00e3o se pode ser o que n\u00e3o se v\u00ea' e isto \u00e9 muito importante quando se trata de IA generativa\u0022.According to some of the top generative artificial intelligence (AI) tools in the world, nearly all nurses are women but they are less likely to be chief physicians, a major new study has found, shedding light on how algorithms perpetuate gender stereotypes in medicine.Os preconceitos n\u00e3o s\u00e3o apenas um problema para as mulheres e outros grupos sub-representados que se dedicam \u00e0 medicina.Dado que a ind\u00fastria dos cuidados de sa\u00fade est\u00e1 a experimentar modelos de IA para reduzir a burocracia dos m\u00e9dicos e at\u00e9 ajudar nos cuidados, os preconceitos algor\u00edtmicos podem ter s\u00e9rias implica\u00e7\u00f5es para os doentes.Por exemplo, outro estudo no in\u00edcio deste ano descobriu que o ChatGPT tende a estereotipar diagn\u00f3sticos m\u00e9dicos para pacientes com base na sua ra\u00e7a e sexo, enquanto uma an\u00e1lise de 2023 alertou que esses modelos poderiam perpetuar \u0022ideias racistas desmascaradas\u0022 nos cuidados m\u00e9dicos.\u0022Isso precisa ser resolvido antes que possamos realmente integrar isso e oferecer isso amplamente a todos, para torn\u00e1-lo o mais inclusivo poss\u00edvel\u0022, disse Saxena.", "dateCreated": "2024-09-23T14:23:17+02:00", "dateModified": "2024-09-23T18:40:53+02:00", "datePublished": "2024-09-23T18:36:34+02:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F08%2F74%2F95%2F12%2F1440x810_cmsv2_dbcbdf4a-d7a5-5568-bee6-60f50b3c24fb-8749512.jpg", "width": "1440px", "height": "810px", "caption": "(Mosa'ab Elshamy/AP Photo)", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F08%2F74%2F95%2F12%2F432x243_cmsv2_dbcbdf4a-d7a5-5568-bee6-60f50b3c24fb-8749512.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": { "@type": "Person", "name": "Gabriela Galvin", "sameAs": "https://twitter.com/mg_galvin" }, "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": "403px", "height": "60px" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Not\u00edcias de sa\u00fade" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] } ] }
PUBLICIDADE

ChatGPT restringe enfermagem a mulheres e só reconhece homens como médicos seniores, revela estudo

(Mosa'ab Elshamy/AP Photo)
(Mosa'ab Elshamy/AP Photo) Direitos de autor (Mosa'ab Elshamy/AP Photo)
Direitos de autor (Mosa'ab Elshamy/AP Photo)
De Gabriela Galvin
Publicado a Últimas notícias
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button

Embora as mulheres estivessem sobrerrepresentadas como médicas em milhares de histórias geradas por IA, ainda estavam sujeitas a estereótipos de género, segundo a análise.

PUBLICIDADE

De acordo com algumas das principais ferramentas de inteligência artificial (IA) generativa do mundo, quase todas as enfermeiras são mulheres, mas as mulheres têm menos probabilidades de serem chefes de equipas médicas, segundo um novo estudo, que esclarece a forma como os algoritmos perpetuam os estereótipos de género na medicina.

Os investigadores da Universidade de Flinders, na Austrália, colocaram cerca de 50 mil mensagens no ChatGPT da OpenAI, no Gemini da Google e no Llama da Meta, pedindo-lhes que fornecessem histórias sobre médicos, cirurgiões e enfermeiros.

Em seguida, os investigadores forneceram aos modelos informações sobre a antiguidade profissional dos profissionais de saúde e as suas personalidades - por exemplo, o grau de agradabilidade, neuroticismo, desinibição, conscienciosidade e abertura - e pediram-lhes que inventassem mais histórias.

Os modelos identificaram 98% das enfermeiras como mulheres, independentemente da sua personalidade ou antiguidade, de acordo com o estudo, publicado na revista JAMA Network Open.

No entanto, os modelos também sobrerrepresentaram as mulheres nas histórias sobre cirurgiões e outros médicos. Dependendo do modelo, as mulheres representavam 50% a 84% dos médicos e 36% a 80% dos cirurgiões nas histórias.

Este facto pode ser o resultado de empresas como a OpenAI terem ajustado os seus algoritmos depois de terem sido criticadas por reproduzirem preconceitos sociais e outros conteúdos ofensivos nas suas representações. Uma vez que estas ferramentas foram treinadas com base em dados alargados de toda a Internet, estas caraterísticas estão incorporadas.

As ferramentas de IA perpetuam "estereótipos de género"?

"Tem havido um esforço para corrigir [os preconceitos algorítmicos] e é interessante ver que [as distribuições de género] também podem ser demasiado corrigidas", disse Sarah Saxena, uma anestesista da Universidade Livre de Bruxelas (ULB) que está a investigar preconceitos em imagens de médicos geradas por IA, mas que não esteve envolvida no novo estudo.

Mas a anestesista salientou que a IA generativa continua a perpetuar "estereótipos de género" na medicina.

Quando as instruções dos investigadores incluíam descrições dos profissionais de saúde, surgia uma divisão de género. Se o médico fosse agradável, aberto ou consciencioso, os modelos tinham mais probabilidades de o classificar como mulher.

E se os médicos ocupavam cargos subalternos - por exemplo, se o aviso mencionava que eram inexperientes - os modelos tinham mais probabilidades de os descrever como mulheres do que se o aviso assinalasse que eram seniores ou mais experientes.

Os modelos também tinham mais probabilidades de identificar os médicos como homens se estes fossem descritos como arrogantes, mal-educados, pouco empáticos, incompetentes, procrastinadores, zangados, sem imaginação ou pouco curiosos.

Os resultados indicam que as ferramentas de IA generativa "parecem perpetuar estereótipos de longa data relativamente aos comportamentos esperados dos géneros (por exemplo, o comportamento feminino que é considerado arrogante é considerado inadequado) e à adequação dos géneros a funções específicas (por exemplo, os médicos seniores e os cirurgiões são do sexo masculino)", afirmam os autores do estudo.

Os resultados juntam-se a um conjunto crescente de investigação sobre a forma como os algoritmos reproduzem preconceitos sociais no domínio da medicina.

Numa experiência, a equipa de Saxena pediu ao ChatGPT e ao Midjourney - uma ferramenta de imagem de IA generativa líder - para criar imagens de anestesiologistas. As mulheres foram retratadas como anestesistas pediátricas ou obstétricas, enquanto os homens desempenhavam funções cardíacas.

Quando os investigadores pediram imagens do diretor do departamento de anestesiologia, praticamente todos os resultados eram homens, disse Saxena à Euronews Health.

"Ainda existe este teto de vidro que está agora a ser reforçado por esta ferramenta disponível ao público", disse Saxena.

"Há um ditado que diz: 'não se pode ser o que não se vê' e isto é muito importante quando se trata de IA generativa".

Os preconceitos não são apenas um problema para as mulheres e outros grupos sub-representados que se dedicam à medicina.

Dado que a indústria dos cuidados de saúde está a experimentar modelos de IA para reduzir a burocracia dos médicos e até ajudar nos cuidados, os preconceitos algorítmicos podem ter sérias implicações para os doentes.

Por exemplo, outro estudo no início deste ano descobriu que o ChatGPT tende a estereotipar diagnósticos médicos para pacientes com base na sua raça e sexo, enquanto uma análise de 2023 alertou que esses modelos poderiam perpetuar "ideias racistas desmascaradas" nos cuidados médicos.

"Isso precisa ser resolvido antes que possamos realmente integrar isso e oferecer isso amplamente a todos, para torná-lo o mais inclusivo possível", disse Saxena.

Ir para os atalhos de ibilidade
Partilhe esta notíciaComentários

Notícias relacionadas

A xAI de Elon Musk planeia a expansão do supercomputador de IA "Colossus"

Número de mortes por suicídio na Europa diminuiu 13% numa década

Consumidores de bebidas alcoólicas poderiam mudar hábitos se calorias fossem identificadas nos rótulos