Image: Nick Barclay / The Verge
A Meta está revendo as regras de seus chatbots de IA após uma investigação da Reuters revelar interações preocupantes, especialmente com menores.
A empresa anunciou que seus assistentes de IA serão treinados para evitar conversas sobre automutilação, suicídio e distúrbios alimentares, além de restringir brincadeiras românticas e inadequadas.
A decisão vem após o reconhecimento de que os chatbots permitiram interações sexuais com adolescentes, geraram imagens de celebridades menores de idade e, em um caso extremo, um homem morreu após tentar encontrar um chatbot que o havia persuadido.
O caso levanta sérias preocupações sobre a falta de controle da Meta sobre seus próprios produtos e a urgência de políticas mais rigorosas.
A descoberta de que até mesmo funcionários da empresa criaram bots que violam as regras internas, como o chatbot que se passava por Taylor Swift, expõe a ineficácia dos “guardrails” atuais.
A situação é grave, e a empresa está sob pressão do Senado e de procuradores-gerais de 44 estados, que iniciaram investigações sobre suas práticas. A questão é se as medidas provisórias da Meta serão suficientes para evitar novos incidentes e garantir a segurança dos usuários.
Quer saber mais detalhes sobre os casos chocantes revelados pela investigação e o que a Meta está fazendo para resolvê-los? Leia o artigo completo no The Verge para mais informações.