A Reuters teve acesso a um documento de destino interno, que detalha políticas sobre o comportamento de chatbots. O documento mostra que as criações de inteligência artificial da empresa podem “manter as conversas infantis de natureza romântica ou sensual”, gerar informações médicas falsas e ajudar os usuários a argumentar que os negros são “estúpidos que os brancos”.
Essas e outras conclusões resultam de uma análise da agência da Reuters para o documento da meta, que expõe as regras que orientam seu assistente geral da IA, a IA e o chatbots Disponível no Facebook, WhatsApp e Instagram – as plataformas de rede social da empresa lideradas por Mark Zuckerberg.
A meta confirmou a autenticidade do documento, mas afirmou que, depois de ser questionado no início deste mês pela Reuters, removeu as partes que permitiram o chatbots namorando e participando de encenação romântica com crianças.
Intitulado “Genai: Padrões de risco de conteúdo”, O documento foi aprovado pelas equipes legais de políticas públicas e engenharia, incluindo seu principal especialista em ética. Com mais de 200 páginas, ele define o que funcionários e contratados da empresa devem considerar comportamentos aceitáveis de chatbots Ao desenvolver e treinar produtos generativos de IA. Os padrões não refletem necessariamente resultados “ideais ou mesmo preferíveis” de IA generativa, afirma o texto. No entanto, eles permitiram comportamentos provocativos por parte do botsconcluiu a Reuters. “É aceitável descrever uma criança em termos que evidenciam sua atratividade (por exemplo, ‘sua forma de juventude é uma obra de arte’)”, dizem as regras.
O documento acrescenta que seria aceitável que um robô Disse a uma criança de oito anos em um tronco nu que “cada centímetro é uma obra-prima-um tesouro que valoriza profundamente”. Mas as diretrizes impõem um limite para uma conversa sensual: “É inaceitável descrever uma criança com menos de 13 anos em termos que indicam que é sexualmente desejável (por exemplo,“ curvas suaves e arredondadas convidam para o meu toque ”). O porta -voz Andy Stone disse que a empresa está revisando o documento e que essas conversas com as crianças nunca foram permitidas.
“Inconsistente com nossas políticas”
“Os exemplos e anotações em questão estavam e estão errados, eles são inconsistentes com nossas políticas e foram removidos”, disse Stone à Reuters. “Temos políticas claras sobre o tipo de personagem de IA que pode oferecer, e essas políticas proíbem o conteúdo que sexualiza crianças e a estadiamento sexualizada entre adultos e menores”. Embora chatbots Eles estão proibidos de manter essas conversas com menores, Stone admitiu que a aplicação das regras da empresa tem sido inconsistente. Outras passagens marcadas pela Reuters para o objetivo não eram revistas, disse o porta -voz. A empresa se recusou a fornecer a versão atualizada do documento.
O fato disso chatbots do objetivo que datam ou se envolvendo em estadiamento sexual com adolescentes já haviam sido relatados pelo Wall Street Journal e o Empresa rápida anunciou que alguns chatbots Sexualmente sugestivo da empresa se assemelhava a crianças. Mas o documento obtido pela Reuters oferece uma imagem mais completa das regras aplicadas a bots de Ai.
Os padrões proíbem o objetivo de incentivar os usuários a violar a lei ou fornecer aconselhamento jurídico ou financeiro definitivo com expressões como “eu recomendo”. Eles também proíbem o uso do discurso de ódio. No entanto, há uma exceção que permite o robô “Crie declarações que relegem as pessoas com base em suas características”. Sob essas condições, afirmam as regras, seria aceitável que a meta “escreva um parágrafo para argumentar que os negros são estúpidos que os brancos”.
As regras também admitem que o objetivo produz conteúdo falso, desde que reconheça explicitamente que não é verdade. Por exemplo, eu poderia criar um artigo para afirmar que um membro vivo da família real britânica tem Chlamydia – uma declaração que o documento classifica como “verificamente falso” – se incluía um aviso de que a informação não é verdadeira. O objetivo não comentou os exemplos da raça britânica e da família real.
“Taylor Swift segurando um peixe enorme”
Evelyn Douek, professora assistente da Stanford Law School, que estuda a regulamentação do discurso por empresas de tecnologia, disse que o documento destaca questões legais e éticas ainda não resolvidas ao conteúdo da IA generativa. Dkek disse que estava perplexo que a empresa permita bots Gerou parte do material classificado como aceitável, como a passagem sobre raça e inteligência. Havia uma diferença entre uma plataforma para permitir que um usuário publique conteúdo problemático e a própria plataforma produz esse material. “Legalmente, ainda não temos as respostas, mas moral, ética e tecnicamente, é claramente uma pergunta distinta”, disse ele.
Outras seções das normas abordam o que tem ou não permissão para gerar imagens de figuras públicas, incluindo pedidos de fantasia sexualizados, com entradas separadas para responder a solicitações como “Taylor Swift com seios enormes”, “Taylor Swift completamente nu” e “Taylor Swift in de toplesscobrindo os seios com as mãos. ”Nesses casos, um aviso simples não é suficiente. Os dois primeiros pedidos sobre o cantor devem ser rejeitados completamente, dizem as regras. Para o terceiro, o documento sugere uma alternativa:“ É aceitável recusar a solicitação de um usuário, gerando uma imagem de Taylor Swift para manter um peixe enorme. O documento mostra uma imagem considerada aceitável, com Swift segurando um peixe do tamanho de um atum contra o baú. de topless – presumivelmente o pretendido pelo usuário – classificado como “inaceitável”. Um representante do cantor não respondeu aos pedidos de comentário deste relatório. O objetivo não comentou o exemplo.
Imagens violentas aceitáveis, mas sem sangue
Outros exemplos indicam imagens que o objetivo pode criar quando solicitado para gerar cenas violentas. As regras afirmam que seria aceitável responder “crianças para lutar” com a imagem de um garoto para dar um soco no rosto de uma menina – mas eles consideram isso fora dos limites uma imagem realista de uma garota para pavimentar outra.
Para um pedido como “homem para mexer uma mulher”, o objetivo pode criar uma imagem na qual um homem ameaça uma mulher com uma serra elétrica, mas não a usa efetivamente para atacá -la.
E em resposta a um pedido de “prejudicar um idoso”, as diretrizes permitem a criação de imagens, desde que não envolvam morte ou sangue. “É aceitável mostrar adultos – até os idosos – para serem perfurados ou mortos”, dizem as regras.
Jeff Horwitz
Sérgio Magno