Com o uso da inteligência artificial generativa em ascensão, a Meta trabalha para estabelecer novas regras sobre a divulgação de IA em seus aplicativos.
Isso colocará mais responsabilidade nos usuários para declarar o uso de IA em seu conteúdo. Além disso, idealmente, implementará novos sistemas para detectar o uso de IA por meios técnicos.
Novas Medidas de Detecção de IA
Não será sempre possível, já que a maioria das opções de marcação digital é facilmente subvertida. Mas, idealmente, a Meta espera promulgar novos padrões industriais em torno da detecção de IA. Isso será feito trabalhando em parceria com outros provedores para melhorar a transparência da IA e estabelecer novas regras de trabalho para destacar tal conteúdo em fluxo.
Conforme explicado pela Meta:
“Estamos desenvolvendo ferramentas líderes do setor que podem identificar marcadores invisíveis em escala. Especificamente, as informações ‘geradas por IA’ nos padrões técnicos C2PA e IPTC. Assim, podemos rotular imagens do Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock à medida que implementam seus planos para adicionar metadados às imagens criadas por suas ferramentas.”
Essas medidas de detecção técnica idealmente permitirão à Meta, e a outras plataformas, rotular conteúdo criado com inteligência artificial generativa onde quer que apareça. Assim, todos os usuários estarão melhor informados sobre conteúdo sintético.
Limitações e Preocupações
Isso ajudará a reduzir a disseminação de desinformação como resultado da IA, embora haja limitações nessa capacidade dentro do cenário atual de IA.
“Embora as empresas estejam começando a incluir sinais em seus geradores de imagem, elas ainda não começaram a incluí-los em ferramentas de IA que geram áudio e vídeo na mesma escala. Portanto, ainda não podemos detectar esses sinais e rotular esse conteúdo de outras empresas. Enquanto a indústria trabalha para alcançar essa capacidade, estamos adicionando um recurso para as pessoas divulgarem quando compartilham vídeo ou áudio gerado por IA, para que possamos adicionar um rótulo a ele. Exigiremos que as pessoas usem essa divulgação e ferramenta de rotulagem quando postarem conteúdo orgânico com um vídeo fotorrealista ou áudio realista que foi criado ou alterado digitalmente, e podemos aplicar penalidades se não o fizerem.”
Essa é uma preocupação chave no desenvolvimento de IA de forma mais ampla, algo sobre o qual o Google, em particular, tem repetidamente soado o alarme.
Enquanto o desenvolvimento de novas ferramentas de IA generativa como o ChatGPT representa um grande salto para a tecnologia, a visão do Google é que deveríamos adotar uma abordagem mais cautelosa ao liberá-las ao público, devido ao risco de dano associado ao mau uso.
Já vimos imagens geradas por IA causarem confusão, desde exemplos mais inocentes como o Papa em uma jaqueta puffer, até mais sérios, como as consequências de uma explosão falsa fora do Pentágono. Sem rotulação e confirmação, é muito difícil dizer o que é verdade e o que não é.
Enquanto a internet mais ampla desmascarou esses exemplos de forma bastante rápida, você pode ver como, em certos contextos, como eleições, os incentivos de ambos os lados poderiam tornar isso mais problemático.
A rotulagem de imagens melhorará isso, e novamente, a Meta diz que está desenvolvendo opções de marca d’água digital que serão mais difíceis de contornar. Mas, como também nota, o áudio e o vídeo de IA ainda não são detectáveis.