O bom e o ruim da IA na guerra contra a desinformação

Especialistas debatem sobre como a IA já é usada no contexto das fake news

Maria Fernanda Gimenes e Matheus Zúñiga, da Universidade Mackenzie | 03/10/2019 13:47
As fake news apenas se propagam tão rapidamente pela rede por causa das pessoas, que gostam do seu sensacionalismo. Esse foi um dos principais temas abordados no painel 2 do mídia.JOR, mediado por Flávio Ferrari, Diretor do Copenhagen Institute for Futures Studies (Brasil).

Antes do início do painel, houve uma call com Eduardo Magrani, Ph.D. e Vice-Presidente do Instituto Nacional de Proteção de Dados Pessoais. Ele comentou sobre a concepção de Humanos versus IA, e como a ética se aplica a erros cometidos por robôs. Algo reforçado por Magrani foi a afirmação de que as pessoas querem IAs cada vez mais empáticas, capazes de se adaptar a qualquer situação (strong AI) que não serão mais "artificiais"; um termo mais adequado seria "inteligência computacional". Quando chegar a realidade do strong AI, Magrani acredita que os conceitos éticos deverão ser reformulados, pois as máquinas se tornarão tão complexas quanto as pessoas.
Crédito:Maria Fernanda Gimenes e Matheus Zúñiga Silvestre

Já no painel sobre “O algoritmo informado – como IA pode ajudar a combater a desinformação”, Renato Cruz, editor do inova.jor, afirmou que os verdadeiros culpados pela infestação das fake news são as próprias pessoas, que repassam informações falsas, mesmo sabendo de sua incoerência, às vezes, simplesmente, por efeito cômico, sem saber das consequências. 

Tai Nalon, Diretora executiva e cofundadora do Aos Fatos, complementa a fala de Renato e diz que “a polarização faz com que as pessoas fiquem muito avessas ao contraditório, só concordam com aquilo que acreditam e lhes tragam conforto de alguma forma.” A diretora também afirmou que as redes socias não têm o dever de se livrar das fake news; essa responsabilidade é dos indivíduos.

O Aos Fatos tem a robô checadora Fátima, que identifica padrões de fake news sem gerar falsos positivos, mas não consegue analisar as informações verdadeiras colocadas fora do contexto por produtores de notícias falsas. Nesse caso, ainda é necessária a ação humana para identificar o problema.

Paulo Henrique Castro, diretor de tecnologia, P&D da TV Globo, lembra que o algoritmo não é necessariamente isento. “A isenção pode haver sim e não, com toda certeza. Depende de quem está programando o algoritmo, no caso um ser humano, mas as duas formas são possíveis”, diz Paulo Henrique, reforçando o papel da sociedade no combate à desinformação. 

*Maria Fernanda Gimenes e Matheus Zúñiga Silvestre são estudantes na Universidade Presbiteriana Mackenzie. Para a cobertura do mídia.JOR, IMPRENSA estabeleceu uma parceria com universidades e professores por meio do projeto "Embaixador IMPRENSA" - uma iniciativa do Portal IMPRENSA que reúne estudantes de Comunicação para um intercâmbio de informações e experiências.

Leia também