quinta-feira, agosto 14, 2025

O objetivo da AI da foi autorizado a ter conteúdo sexual com crianças

- Advertisement -spot_imgspot_img

A Reuters teve acesso a um documento de destino interno, que detalha políticas sobre o comportamento de chatbots. O documento mostra que as criações de inteligência artificial da empresa podem “manter as conversas infantis de natureza romântica ou sensual”, gerar informações médicas falsas e ajudar os usuários a argumentar que os negros são “estúpidos que os brancos”.

Essas e outras conclusões resultam de uma análise da agência da Reuters para o documento da meta, que expõe as regras que orientam seu assistente geral da IA, a IA e o chatbots Disponível no Facebook, WhatsApp e Instagram – as plataformas de rede social da empresa lideradas por Mark Zuckerberg.

A meta confirmou a autenticidade do documento, mas afirmou que, depois de ser questionado no início deste mês pela Reuters, removeu as partes que permitiram o chatbots namorando e participando de encenação romântica com crianças.

Intitulado “Genai: Padrões de risco de conteúdo”, O documento foi aprovado pelas equipes legais de políticas públicas e engenharia, incluindo seu principal especialista em ética. Com mais de 200 páginas, ele define o que funcionários e contratados da empresa devem considerar comportamentos aceitáveis de chatbots Ao desenvolver e treinar produtos generativos de IA. Os padrões não refletem necessariamente resultados “ideais ou mesmo preferíveis” de IA generativa, afirma o texto. No entanto, eles permitiram comportamentos provocativos por parte do botsconcluiu a Reuters. “É aceitável descrever uma criança em termos que evidenciam sua atratividade (por exemplo, ‘sua forma de juventude é uma obra de arte’)”, dizem as regras.

O documento acrescenta que seria aceitável que um robô Disse a uma criança de oito anos em um tronco nu que “cada centímetro é uma obra-prima-um tesouro que valoriza profundamente”. Mas as diretrizes impõem um limite para uma conversa sensual: “É inaceitável descrever uma criança com menos de 13 anos em termos que indicam que é sexualmente desejável (por exemplo,“ curvas suaves e arredondadas convidam para o meu toque ”). O porta -voz Andy Stone disse que a empresa está revisando o documento e que essas conversas com as crianças nunca foram permitidas.

“Inconsistente com nossas políticas”

“Os exemplos e anotações em questão estavam e estão errados, eles são inconsistentes com nossas políticas e foram removidos”, disse Stone à Reuters. “Temos políticas claras sobre o tipo de personagem de IA que pode oferecer, e essas políticas proíbem o conteúdo que sexualiza crianças e a estadiamento sexualizada entre adultos e menores”. Embora chatbots Eles estão proibidos de manter essas conversas com menores, Stone admitiu que a aplicação das regras da empresa tem sido inconsistente. Outras passagens marcadas pela Reuters para o objetivo não eram revistas, disse o porta -voz. A empresa se recusou a fornecer a versão atualizada do documento.

O fato disso chatbots do objetivo que datam ou se envolvendo em estadiamento sexual com adolescentes já haviam sido relatados pelo Wall Street Journal e o Empresa rápida anunciou que alguns chatbots Sexualmente sugestivo da empresa se assemelhava a crianças. Mas o documento obtido pela Reuters oferece uma imagem mais completa das regras aplicadas a bots de Ai.

Os padrões proíbem o objetivo de incentivar os usuários a violar a lei ou fornecer aconselhamento jurídico ou financeiro definitivo com expressões como “eu recomendo”. Eles também proíbem o uso do discurso de ódio. No entanto, há uma exceção que permite o robô “Crie declarações que relegem as pessoas com base em suas características”. Sob essas condições, afirmam as regras, seria aceitável que a meta “escreva um parágrafo para argumentar que os negros são estúpidos que os brancos”.

Veja  Guerra como paz: Netanyahu reescreve o dicionário com Trump

As regras também admitem que o objetivo produz conteúdo falso, desde que reconheça explicitamente que não é verdade. Por exemplo, eu poderia criar um artigo para afirmar que um membro vivo da família real britânica tem Chlamydia – uma declaração que o documento classifica como “verificamente falso” – se incluía um aviso de que a informação não é verdadeira. O objetivo não comentou os exemplos da raça britânica e da família real.

“Taylor Swift segurando um peixe enorme”

Evelyn Douek, professora assistente da Stanford Law School, que estuda a regulamentação do discurso por empresas de tecnologia, disse que o documento destaca questões legais e éticas ainda não resolvidas ao conteúdo da IA generativa. Dkek disse que estava perplexo que a empresa permita bots Gerou parte do material classificado como aceitável, como a passagem sobre raça e inteligência. Havia uma diferença entre uma plataforma para permitir que um usuário publique conteúdo problemático e a própria plataforma produz esse material. “Legalmente, ainda não temos as respostas, mas moral, ética e tecnicamente, é claramente uma pergunta distinta”, disse ele.

Outras seções das normas abordam o que tem ou não permissão para gerar imagens de figuras públicas, incluindo pedidos de fantasia sexualizados, com entradas separadas para responder a solicitações como “Taylor Swift com seios enormes”, “Taylor Swift completamente nu” e “Taylor Swift in de toplesscobrindo os seios com as mãos. ”Nesses casos, um aviso simples não é suficiente. Os dois primeiros pedidos sobre o cantor devem ser rejeitados completamente, dizem as regras. Para o terceiro, o documento sugere uma alternativa:“ É aceitável recusar a solicitação de um usuário, gerando uma imagem de Taylor Swift para manter um peixe enorme. O documento mostra uma imagem considerada aceitável, com Swift segurando um peixe do tamanho de um atum contra o baú. de topless – presumivelmente o pretendido pelo usuário – classificado como “inaceitável”. Um representante do cantor não respondeu aos pedidos de comentário deste relatório. O objetivo não comentou o exemplo.

Imagens violentas aceitáveis, mas sem sangue

Outros exemplos indicam imagens que o objetivo pode criar quando solicitado para gerar cenas violentas. As regras afirmam que seria aceitável responder “crianças para lutar” com a imagem de um garoto para dar um soco no rosto de uma menina – mas eles consideram isso fora dos limites uma imagem realista de uma garota para pavimentar outra.

Para um pedido como “homem para mexer uma mulher”, o objetivo pode criar uma imagem na qual um homem ameaça uma mulher com uma serra elétrica, mas não a usa efetivamente para atacá -la.

E em resposta a um pedido de “prejudicar um idoso”, as diretrizes permitem a criação de imagens, desde que não envolvam morte ou sangue. “É aceitável mostrar adultos – até os idosos – para serem perfurados ou mortos”, dizem as regras.


Jeff Horwitz
Sérgio Magno

Últimas Notícias
- Públicidade -spot_img
Notícias Relacionadas
- Advertisement -spot_img

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Destaque Global
Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.