
São Paulo registra temperaturas altas e tempo seco nesta quarta-feira
03/09/2025
Defesa de Heleno pede nulidade do julgamento por violação do sistema acusatório
03/09/2025
A empresa americana de inteligência artificial OpenAI anunciou na terça-feira (2) que adicionará controles parentais ao seu chatbot ChatGPT, uma semana após um casal americano afirmar que o sistema incentivou seu filho adolescente a cometer suicídio. “No próximo mês, os pais poderão (…) vincular sua conta à conta do filho adolescente” e “controlar como o ChatGPT responde ao adolescente com regras de comportamento adequadas à idade”, explicou a empresa de IA generativa em seu blog.
Os pais também receberão notificações do ChatGPT “quando o sistema detectar que o adolescente está em um momento de angústia aguda”, acrescentou a OpenAI. Matthew e Maria Raine afirmam na ação apresentada na segunda-feira em um tribunal do estado da Califórnia que o ChatGPT cultivou uma relação íntima com seu filho Adam por vários meses entre 2024 e 2025, antes de sua morte. A denúncia alega que em sua conversa final, em 11 de abril de 2025, o ChatGPT ajudou Adam a roubar vodca de seus pais e lhe forneceu uma análise técnica sobre um nó corrediço com o qual confirmou que “poderia potencialmente enforcar um ser humano”. Adam foi encontrado morto horas depois usando esse método.
“Quando uma pessoa usa o ChatGPT realmente sente que está conversando com algo do outro lado”, disse a advogada Melodi Dincer, que ajudou a preparar a ação legal. “Essas são as mesmas características que poderiam levar alguém como Adam, com o tempo, a começar a compartilhar cada vez mais sobre sua vida pessoal e, em última análise, a buscar conselhos e orientação deste produto que basicamente parece ter todas as respostas”, afirmou Dincer.
A advogada disse que a publicação no blog da OpenAI anunciando os controles parentais e outras medidas de segurança é “genérica” e carece de detalhes. “Realmente é o mínimo, e definitivamente sugere que muitas medidas de segurança (simples) poderiam ter sido implementadas”, acrescentou. “Resta ver se farão o que dizem que farão e quão eficaz será no geral”.
O caso dos Raine foi apenas o mais recente em uma série de incidentes nos quais pessoas foram incentivadas por chatbots de IA a seguir pensamentos delirantes ou prejudiciais, o que levou a OpenAI a anunciar que reduziria a “bajulação” dos modelos aos usuários. “Continuamos melhorando em como nossos modelos reconhecem e respondem a sinais de angústia mental e emocional”, disse a OpenAI na terça-feira.

OpenAI é a empresa que desenvolveu o ChatGPT
*Com informações da AFP
Fonte: Noticias ao Minuto Read More