
Catharina Doria viralizou com vídeos em que fala sobre cuidados com a inteligência artificial
Arquivo Pessoal via BBC
Catharina Doria construiu uma audiência de quase 600 mil seguidores no Instagram e em outras redes sociais ao explicar, em vídeos curtos, como diferenciar uma imagem real de uma criada por inteligência artificial.
Ensinou também por que pais devem evitar postar fotos dos filhos em redes sociais e alertou sobre outras questões envolvendo a tecnologia (leia aqui entrevista da BBC News Brasil com a influenciadora).
🗒️Tem alguma sugestão de reportagem? Mande para o g1
E pode ter sido justamente o tema central de seu trabalho — os limites da decisão automatizada — que a levou a perder duas de suas contas na rede social nas últimas semanas, sob a justificativa de violar diretrizes da Meta, empresa responsável pela rede social.
“E parece tragicômico que eu sou especialista em IA ética e uma IA possa destruir a minha vida. Influencer de IA ética é banida por IA”, disse à BBC News Brasil.
No fim de março, Catharina adotou Miss Petunia, uma cadela resgatada de maus-tratos, e, a pedido dos seguidores, criou um perfil dedicado ao animal: @misspetuniathechi. Segundo ela, a conta foi suspensa no mesmo instante em que foi criada, antes de qualquer publicação, foto de perfil ou biografia.
Veja os vídeos em alta no g1
Vídeos em alta no g1
“No momento em que eu cliquei para criar a conta, eu recebi uma notificação de que a minha conta tinha sido banida por ir contra as diretrizes da comunidade”, relata. “Mas não deu nem tempo de postar uma foto, nem nada. É como se a conta tivesse nascido morta.”
Ela encaminhou à reportagem da BBC Brasil a cópia de um e-mail que contou ter recebido do Instagram, que diz que a conta foi suspensa por violar as “Community Standards on account integrity” (“Diretrizes da comunidade sobre integridade de conta”).
Catharina diz ter aberto recurso e enviado um documento de identidade, como solicitado pela plataforma. Mas conta que recebeu nova mensagem do Instagram dizendo que o documento havia sido recusado, sem detalhar o motivo, e pedindo o reenvio. Em seguida, a conta foi desativada.
Em maio, o Instagram informou a ela que uma segunda conta sua havia sido suspensa: a do @theaisurvivalclub, comunidade que ela mantém para discutir letramento crítico em inteligência artificial.
A justificativa seria a de que a conta estaria associada a outra que infringiu regras da empresa.
“Trabalho com isso, é minha fonte de renda, é minha fonte de credibilidade. Saber que uma inteligência artificial pode acabar com o meu salário, acabar com o meu ganha-pão, acabar com tudo, é assustador.”
A conta principal, @cahdoria, segue ativa, mas ela teme que também seja derrubada pelas regras que contou ter recebido na resposta da Meta.
Procurada, a Meta disse que não iria se manifestar. A empresa não respondeu se houve revisão humana da decisão.
‘O algoritmo erra em escala’
“A nossa expectativa é que, ao menos, a gente saiba o motivo (da suspensão) e que, sabendo, a gente tenha o direito de questionar”, diz o advogado e pesquisador de Harvard Caio Vieira Machado.
Para ele, o problema central é a opacidade das decisões.
“O algoritmo deles pode ter detectado algo estranho e, a partir disso, ter sinalizado que a conta, de repente, está espalhando um conteúdo de nudez, espalhando desinformação, espalhando alguma informação política que não interessa à plataforma, alguma visão mais delicada ou polarizada, por exemplo”, afirma.
“Ou o contrário: às vezes alguma coisa que esteja gerando polêmica pode ser amplificada pelo algoritmo.”
Segundo o pesquisador, o primeiro problema é que o usuário “está recebendo um serviço que é inconstante” e “não é informado de como isso funciona com relação à transparência dos algoritmos. A gente sequer tem uma condição boa da qualidade do algoritmo”.
Como esses sistemas operam em escala global, diz, eventuais erros se multiplicam: “Sabendo que essas tecnologias erram, e erram em escala — pensa quantos bilhões de publicações acontecem todos os dias —, 1% se for o erro, é uma escala de milhões.”
Por isso, afirma, a saída esperada é a revisão humana. “Em muitos casos pode ser que o modelo simplesmente tenha interpretado errado. Falsos positivos.”
Ele cita um artigo da Lei Geral de Proteção de Dados (LGPD), que prevê que qualquer cidadão pode pedir que decisões automatizadas que afetem seus interesses sejam revistas por uma pessoa.
Na prática, porém, esses revisores são “exércitos de pessoas contratadas por essas empresas, pagas um valor irrisório, com publicações aos milhares por dia para avaliar”, afirma o advogado. “Eles têm poucos segundos para avaliar o que está lá.”







