Se antes os deepfakes pareciam enredos distópicos de séries de TV como Black Mirror, agora são uma realidade ao alcance de qualquer celular com acesso à internet. A proliferação de vídeos hiperrealistas forjados com inteligência artificial vem acendendo alertas em todo o mundo – da Casa Branca à União Europeia -, mas a velocidade da tecnologia continua superando a capacidade de regulação, fiscalização e preparo social.
Na sexta temporada de Black Mirror, que já é conhecida por seus alertas distópicos sobre o uso irresponsável da tecnologia, o episódio Joan is Awful traz a história de uma mulher que descobre que sua vida foi transformada em série via IA generativa sem seu consentimento – um enredo que, se parecia ficção há alguns anos, hoje soa cada vez mais plausível. Fora da ficção, ferramentas como DeepFaceLab, HeyGen e outras vêm sendo utilizadas tanto para entretenimento quanto para fraudes financeiras, manipulação de informações e até chantagens – o uso de conteúdos sintéticos também já foi identificado em campanhas eleitorais, manipulação de mercado financeiro e assédios online, porém essa é só a ponta do iceberg.
A União Europeia aprovou, em março de 2024, o AI Act, o primeiro marco legal para inteligência artificial, que exige rotulagem obrigatória de conteúdos sintéticos e transparência no uso de dado. Também no ano passado, nos EUA, a Casa Branca lançou diretrizes para combater deepfakes em campanhas eleitorais, temendo sua influência na eleição presidencial de novembro.
E como isso afeta as empresas e startups, especialmente no Brasil?
De acordo com a empresa de segurança digital Sumsub, os incidentes de deepfake no setor de fintech cresceram 700% entre 2022 e 2023. E, reacendendo o alerta dos perigos da tecnologia que não para de avançar, os impactos do mal uso da IA generativa vão além do crime cibernético.
São duas as preocupações mais urgentes a respeito de deepfakes: estamos preparados para lidar com as implicações humanas da inovação? As empresas estão considerando as consequências éticas das tecnologias que adotam e promovem?
Para Eduardo Freire, CEO da FWK Innovation Design, a resposta é não. “É importante termos coragem de assumir isso. A tecnologia de deepfake está avançando muito mais rápido do que nossa capacidade institucional, jurídica e até emocional de compreendê-la. O problema não é só técnico – é ético, cultural e estratégico”, justifica.
Já Raphael Santos Marques, cofundador da Tech do Bem, aponta sobre os perigos da popularização da IA generativa. “Com as seguidas atualizações que essa tecnologia irá receber, a tendência é ela cada vez mais se popularizar, e o perigo mora justamente aí, pois a sociedade ainda não desenvolveu o letramento digital necessário para identificar e lidar com conteúdo sintético”, explica.
Ângelo Vieira Jr., especialista em Marketing, Inovação, CX e Digital e estrategista-chefe da Lúmen Strategy, alerta para um descompasso profundo entre o ritmo da tecnologia e a capacidade humana de acompanhá-lo. “Na maioria das vezes, não estamos preparados emocional, social, moral e eticamente para o ritmo da inovação que vivemos. A tecnologia avança exponencialmente, enquanto a cultura, as leis e até a educação seguem num passo linear”, entende.
A seguir, os especialistas indicam seis caminhos possíveis para conter os danos dessa tecnologia e fortalecer uma cultura de confiança digital dentro e fora das empresas, baseando-se em uma visão crítica e estratégica sobre ética, inovação e confiança.
1. Incluir ética desde o início dos projetos tecnológicos. “A resposta não virá só com leis ou firewalls. A gente precisa de educação crítica, governança ética e um novo tipo de liderança: mais consciente dos riscos e mais conectada com o impacto real da inovação sobre as pessoas”, aponta Eduardo.
2. Superar o piloto automático da inovação. “Boa parte das empresas ainda trata a ética como uma consideração secundária no desenvolvimento tecnológico. Vejo frequentemente que o ímpeto de criar produtos ‘inteligentes’ supera as considerações sobre privacidade e segurança”, pontua Raphael.
3. Compreender que o impacto da tecnologia é humano. “Essa defasagem gera um vácuo onde ocorrem conflitos sociais, crises de identidade e até novas formas de desigualdade. Isso porque a tecnologia e as inteligências não são ‘boas ou más’, mas sim quem as cria, faz, usa, modera e legisla sobre elas, ou seja, os humanos”, relembra Ângelo.
4. Estabelecer liderança ética nas organizações. “Ética não pode ser uma instância acessória. Ela precisa estar integrada ao núcleo das decisões estratégicas, e isso só é possível quando temos lideranças comprometidas com o impacto social da tecnologia”, reforça o cofundador da Tech do Bem.
5. Medir o sucesso de forma diferente. “Falar de ética não é papo romântico – é estratégia. É reputação, consistência e sustentabilidade. Não dá mais pra tratar impacto como uma aba do ESG ou um parágrafo no relatório anual”, sinaliza o estrategista de inovação.
6. Desenvolver uma cultura de convivência com a IA. “Estamos integrando máquinas ao cotidiano sem entender os efeitos sobre nossa subjetividade. A cultura da inovação precisa ser acompanhada por uma cultura de cuidado com o humano”, conclui o estrategista-chefe da Lúmen Strategy.