{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/next/2025/03/31/cinco-coisas-que-nao-deve-partilhar-no-chatgpt" }, "headline": "Cinco coisas que n\u00e3o deve partilhar no ChatGPT", "description": "Nos \u00faltimos meses, o ChatGPT tornou-se uma das ferramentas populares para responder a perguntas e auxiliar em v\u00e1rios assuntos do dia a dia. Embora esta ferramenta de IA possa ser muito \u00fatil, alguns investigadores alertam que nem tudo deve ser partilhado com ela.", "articleBody": "O ChatGPT, produto da empresa da Open AI, garante a muitos utilizadores um assistente digital que pode escrever texto, rever c\u00f3digo, analisar resultados m\u00e9dicos ou mesmo ajudar a colocar uma crian\u00e7a a dormir. Mas, por tr\u00e1s destas respostas \u00edntimas est\u00e3o algoritmos que aprendem algo a cada intera\u00e7\u00e3o.Ao longo dos anos, o ChatGPT aprendeu que, por exemplo, adora ovos de galinha e tem dores nas costas. Estes s\u00e3o apenas alguns detalhes uma vez que esta ferramente de IA memorizou muito mais detalhes pessoais desde que apareceu. Na verdade, ferramentas como o ChatGPT visam personalizar respostas e melhorar o seu pr\u00f3prio desempenho futuro, memorizando muitos detalhes individuais, desde a condi\u00e7\u00e3o f\u00edsica dos utilizadores at\u00e9 alguns assuntos mais particulares.Posto isto, \u00e9 importante saber o que n\u00e3o deve ser partilhado e porqu\u00ea. De acordo com alertas de especialistas, existem cinco tipos de informa\u00e7\u00e3o que n\u00e3o devem ser inseridas em conversas com chatbots, uma vez que podem ser mal utilizadas em processos de modelos de treino, erros de sistema ou mesmo em ataques cibern\u00e9ticos.Esta informa\u00e7\u00e3o inclui:Informa\u00e7\u00e3o de identidade: como n\u00famero da certid\u00e3o de nascimento, certid\u00e3o, aporte, morada, n\u00famero de telefone e data de nascimento. Alguns chatbots tentam censurar estes itens, mas n\u00e3o existem garantias sobre a fiabilidade do processo.Resultados de ensaios m\u00e9dicos: os chatbots n\u00e3o est\u00e3o sujeitos a leis r\u00edgidas de prote\u00e7\u00e3o de dados de sa\u00fade. Se necess\u00e1rio, carregue apenas os resultados dos testes sem informa\u00e7\u00e3o de identidade.Informa\u00e7\u00e3o financeira: tais como n\u00fameros banc\u00e1rios ou de contas de investimento, que podem ter consequ\u00eancias graves se divulgados involuntariamente.Informa\u00e7\u00f5es empresariais confidenciais: muitos utilizadores utilizam chatbots para escrever e-mails ou verificar c\u00f3digos enquanto trabalham, mas isso pode revelar informa\u00e7\u00f5es comerciais ou c\u00f3digos confidenciais. Palavras-e e nomes de utilizador: os chatbots n\u00e3o s\u00e3o um espa\u00e7o seguro para armazenar palavras-e ou cofres digitais. Esta informa\u00e7\u00e3o deve ser conservada no software de gest\u00e3o de palavras-e.Grandes empresas como a OpenAI, a Google e a Microsoft utilizam as conversas dos utilizadores para melhorar os seus modelos. Embora os utilizadores possam ativar a op\u00e7\u00e3o de n\u00e3o utilizar dados para forma\u00e7\u00e3o em defini\u00e7\u00f5es, muitas pessoas desconhecem esta capacidade.Formas de manter a privacidadeOs especialistas em ciberseguran\u00e7a sugerem que tome as seguintes medidas para proteger a sua privacidade, tais como: Utilizar o Modo de Chat Tempor\u00e1rio: a funcionalidade \u201cChat Tempor\u00e1rio\u201d funciona como o modo de navega\u00e7\u00e3o an\u00f3nima de um browser, impedindo que as conversas sejam guardadas e utilizadas em modelos de treino.Eliminar conversas: pode elimin\u00e1-las do hist\u00f3rico ap\u00f3s o t\u00e9rmino de cada conversa e certificar-se de que a informa\u00e7\u00e3o \u00e9 completamente apagada ap\u00f3s 30 dias.Utilizar ferramentas de anonimiza\u00e7\u00e3o como a ferramenta a \u201cDuckDuckGo\u201d (Duck.ai) que envia mensagens anonimamente para modelos de IA; embora tenha possibilidades limitadas em compara\u00e7\u00e3o com chatbots completos.Em \u00faltima an\u00e1lise, cabe a cada um de n\u00f3s decidir o que partilhar e o que manter privado. Os chatbots s\u00e3o concebidos para manter as conversas a decorrer, mas a autoridade final ainda est\u00e1 nas suas m\u00e3os.", "dateCreated": "2025-03-31T10:39:11+02:00", "dateModified": "2025-03-31T13:45:18+02:00", "datePublished": "2025-03-31T13:45:18+02:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F07%2F85%2F52%2F56%2F1440x810_cmsv2_30284162-e236-5f18-95e6-f5541a215d47-7855256.jpg", "width": "1440px", "height": "810px", "caption": "Bate-papo GPT", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F07%2F85%2F52%2F56%2F432x243_cmsv2_30284162-e236-5f18-95e6-f5541a215d47-7855256.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": { "@type": "Organization", "name": "Euronews", "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ], "url": "/" }, "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": "403px", "height": "60px" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Noticias Tecnologia" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] } ] }
PUBLICIDADE

Cinco coisas que não deve partilhar no ChatGPT

Bate-papo GPT
Bate-papo GPT Direitos de autor AP
Direitos de autor AP
De یورونیوز فارسی
Publicado a
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button

Nos últimos meses, o ChatGPT tornou-se uma das ferramentas populares para responder a perguntas e auxiliar em vários assuntos do dia a dia. Embora esta ferramenta de IA possa ser muito útil, alguns investigadores alertam que nem tudo deve ser partilhado com ela.

PUBLICIDADE

O ChatGPT, produto da empresa da Open AI, garante a muitos utilizadores um assistente digital que pode escrever texto, rever código, analisar resultados médicos ou mesmo ajudar a colocar uma criança a dormir. Mas, por trás destas respostas íntimas estão algoritmos que aprendem algo a cada interação.

Ao longo dos anos, o ChatGPT aprendeu que, por exemplo, adora ovos de galinha e tem dores nas costas. Estes são apenas alguns detalhes uma vez que esta ferramente de IA memorizou muito mais detalhes pessoais desde que apareceu.

Na verdade, ferramentas como o ChatGPT visam personalizar respostas e melhorar o seu próprio desempenho futuro, memorizando muitos detalhes individuais, desde a condição física dos utilizadores até alguns assuntos mais particulares.

Posto isto, é importante saber o que não deve ser partilhado e porquê.

De acordo com alertas de especialistas, existem cinco tipos de informação que não devem ser inseridas em conversas com chatbots, uma vez que podem ser mal utilizadas em processos de modelos de treino, erros de sistema ou mesmo em ataques cibernéticos.

Esta informação inclui:

  1. Informação de identidade: como número da certidão de nascimento, certidão, aporte, morada, número de telefone e data de nascimento. Alguns chatbots tentam censurar estes itens, mas não existem garantias sobre a fiabilidade do processo.
  2. Resultados de ensaios médicos: os chatbots não estão sujeitos a leis rígidas de proteção de dados de saúde. Se necessário, carregue apenas os resultados dos testes sem informação de identidade.
  3. Informação financeira: tais como números bancários ou de contas de investimento, que podem ter consequências graves se divulgados involuntariamente.
  4. Informações empresariais confidenciais: muitos utilizadores utilizam chatbots para escrever e-mails ou verificar códigos enquanto trabalham, mas isso pode revelar informações comerciais ou códigos confidenciais.
  5. Palavras-e e nomes de utilizador: os chatbots não são um espaço seguro para armazenar palavras-e ou cofres digitais. Esta informação deve ser conservada no software de gestão de palavras-e.
Compartilhar informações pessoais no chat da GPT pode comprometer a privacidade das pessoas
Compartilhar informações pessoais no chat da GPT pode comprometer a privacidade das pessoasCopyright 2023 The Associated Press. All rights reserved.

Grandes empresas como a OpenAI, a Google e a Microsoft utilizam as conversas dos utilizadores para melhorar os seus modelos. Embora os utilizadores possam ativar a opção de não utilizar dados para formação em definições, muitas pessoas desconhecem esta capacidade.

Formas de manter a privacidade

Os especialistas em cibersegurança sugerem que tome as seguintes medidas para proteger a sua privacidade, tais como:

Utilizar o Modo de Chat Temporário: a funcionalidade “Chat Temporário” funciona como o modo de navegação anónima de um browser, impedindo que as conversas sejam guardadas e utilizadas em modelos de treino.

Eliminar conversas: pode eliminá-las do histórico após o término de cada conversa e certificar-se de que a informação é completamente apagada após 30 dias.

Utilizar ferramentas de anonimização como a ferramenta a “DuckDuckGo” (Duck.ai) que envia mensagens anonimamente para modelos de IA; embora tenha possibilidades limitadas em comparação com chatbots completos.

Em última análise, cabe a cada um de nós decidir o que partilhar e o que manter privado. Os chatbots são concebidos para manter as conversas a decorrer, mas a autoridade final ainda está nas suas mãos.

Ir para os atalhos de ibilidade
Partilhe esta notíciaComentários

Notícias relacionadas

Que país está a ganhar a corrida para ser o líder mundial da IA?

Quão bom é o ChatGPT a planear férias? Testei-o numa viagem de fim de semana a Tallinn

ChatGPT, Deepseek: quanta energia consomem os chatbots de IA?