Este áudio é gerado automaticamente. Informe -nos se você tiver feedback.
A seguir, é apresentada uma peça convidada escrita por Kevin Alvero, diretor de conformidade da Integral Ad Science. As opiniões são as próprias do autor.
A inteligência artificial (IA) está se movendo mais rápido do que a indústria de anúncios pode acompanhar. No Festival de Cannes Lions deste ano, a energia era sobre correr à frente e tentar estar entre os primeiros a lançar a IA. As conversas variaram de meta revelar uma onda de ferramentas movidas a IA para ajudar os anunciantes a automatizar a produção criativa para a inquietação em torno do deslocamento de emprego, à medida que as agências e as holdings anunciaram demissões enquanto despejavam mais investimentos na IA. Mas no meio de todo o hype, ninguém parecia estar dirigindo a conversa de ética da IA.
Os profissionais de marketing, editores, agências e plataformas estão dependendo da IA para quase tudo. Ele alimenta a compra da mídia, bloqueia a fraude, escreve cópia do anúncio e até gera criativo. E seu potencial só está se expandindo à medida que novos aplicativos para IA emergem quase todos os dias – de recomendações personalizadas a agentes de atendimento ao cliente à geração avançada de conteúdo. No entanto, não há padrões claros e universais de como a IA deve ser usada, testada ou divulgada. Todo mundo está inventando as pazes à medida que avançam.
Nos setores, os governos estaduais já estão experimentando diferentes regras de IA, todos circulando em torno de temas como transparência e responsabilidade. Se a publicidade aguarda que a colcha de retalhos de regulamentação defina a fasquia, o setor corre o risco de ser forçado a conformidade reativa, em vez de liderar com seus próprios padrões.
O oeste selvagem
No momento, o setor de publicidade existe no oeste selvagem da IA. A tecnologia está correndo para a frente, mas as regras não alcançaram.
No lado positivo, a IA está oferecendo benefícios incríveis. Ajuda os profissionais de marketing a trabalhar mais inteligentes, otimizar campanhas e personalizar o criativo de maneiras inimagináveis há apenas alguns anos. Mas, juntamente com o progresso, há problemas reais. O viés pode se transformar em sistemas sem que ninguém perceba. A desinformação pode se espalhar em escala.
O conteúdo de baixa qualidade “AI Slop” já está inundando a Internet e comendo a confiança. Até 2026, até 90% do conteúdo da Web poderia ser gerado pela IA, de acordo com Europol. Alguns sites acionados pela IA já estão pressionando por mais de 1.200 artigos diariamente, bombeando volume para maximizar a receita de anúncios.
A falta de corrimãos acordados facilita muito para práticas desleixadas ou maus atores. Sem responsabilidade, a base da mídia digital – confiança – pode entrar em colapso. Se isso acontecer, todo mundo perde.
A pressão para adotar práticas responsáveis não é exclusiva da publicidade. Outros setores, de serviços financeiros a assistência médica, já estão sendo examinados pela maneira como eles usam a IA. Esse mesmo nível de expectativa chegará à mídia e à publicidade, e as empresas que se preparam agora estarão melhor posicionadas do que aquelas que esperam.
Como é a IA responsável
Então, como é realmente a IA ética, a IA ética? A IA responsável não é apenas uma política: ela deve ser incorporada às práticas da empresa e vivida todos os dias. Começa com a supervisão humana. As pessoas precisam permanecer no circuito para capturar problemas antes de entrar em problemas maiores.
A mitigação de viés é outra etapa central. Esquerda desmarcada, a IA pode reforçar ou piorar os preconceitos. As empresas precisam de processos claros para identificar e reduzir esse risco.
Os dados e os controles de TI são igualmente importantes. Os sistemas de IA estão com fome de dados, mas esses dados geralmente incluem informações confidenciais. Protegê-lo não é negociável.
E, finalmente, a transparência cria confiança. Os profissionais de marketing, editores e consumidores merecem saber como a IA funciona e o que está por trás dos sistemas que estão usando. Quando as empresas estão abertas, as pessoas estão mais dispostas a confiar nos resultados.
Esses princípios não são apenas teoria. São etapas práticas que podem manter a IA poderosa e segura.
A certificação de terceiros é importante
As políticas internas são um bom começo, mas não são suficientes. À medida que a IA se torna o núcleo de como a mídia é medida e otimizada, as empresas precisam de validação externa.
É aí que entra a certificação de terceiros. Organizações independentes como a Aliança para Mídia Auditada (AAM), Organização Internacional de Padronização (ISO) e a TrustArc podem intervir para testar, validar e certificar sistemas de IA. Isso mostra que suas ferramentas atendem a altos padrões éticos e técnicos, não apenas os que você define para si mesmo.
A certificação de terceiros envia um sinal claro. Diz aos clientes, parceiros e ao público que você leva a sério a IA responsável. Isso prova que você não está apenas falando sobre isso, você está se responsabilizando. Em um mercado onde a confiança é tudo, esse tipo de validação pode ser uma vantagem competitiva poderosa.
Assumindo responsabilidade agora
AI não está indo embora. Ele continuará a moldar o setor de publicidade de maneira mais profunda. É por isso que a liderança é importante agora.
Embora já existam alguns regulamentos emergindo em torno da IA, a tecnologia está avançando muito mais rapidamente do que a política pode acompanhar. O movimento mais inteligente é agir agora, definir a barra alta e liderar as práticas responsáveis. Tomar a iniciativa mostra clientes e parceiros que você está preparado para o longo prazo. Ele ganha credibilidade enquanto os concorrentes ainda estão lutando.
O futuro da publicidade será definido pelo quão bem a indústria lida com IA. Todos nós compartilhamos a responsabilidade de usar essa tecnologia com sabedoria, de maneira justa e eticamente.