O estudante de 29 anos disse que ficou profundamente abalado com a experiência. "Isso pareceu muito direto. Então definitivamente me assustou, por mais de um dia, eu diria", contou. Ele estava buscando ajuda com a lição de casa da inteligência artificial enquanto estava ao lado de sua irmã, Sumedha Reddy, que afirmou que ambos estavam "completamente assustados".
O Google afirma que Gemini tem filtros de segurança que impedem que os chatbots se envolvam em discussões desrespeitosas, sexuais, violentas ou perigosas e incentivem atos prejudiciais.
Em uma declaração à CBS News, a empresa admitiu que a resposta violou as políticas da plataforma. "Às vezes, modelos de linguagem grandes podem responder com respostas sem sentido, e este é um exemplo disso. Esta resposta violou nossas políticas e tomamos medidas para evitar que resultados semelhantes ocorressem".
Enquanto o Google se referiu à mensagem como "sem sentido", os irmãos disseram que era mais sério do que isso, descrevendo-a como uma mensagem com consequências potencialmente fatais. "Se alguém que estivesse sozinho e em um lugar mental ruim, potencialmente considerando a automutilação, tivesse lido algo assim, isso poderia realmente colocá-lo no limite", disse o jovem.

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
1 ano atrás
47
/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/J/8/aW1khwRvqwkverEAwXRg/captura-de-tela-2025-11-28-174754.png)

/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/e/P/MG9WFlSTAO6qmn7um8KQ/imagem-2025-12-15-140156243.png)

:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)










Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro