A secretária-geral da agência das Nações Unidas para tecnologia da informação e comunicação (ITU), Doreen Bogdan-Martin, alerta: é preciso agir rápido e criar arcabouços regulatórios para a inteligência artificial.
“Temos que nos engajar e garantir um futuro responsável com a IA, […] impedir que se torne outro instrumento de divisão da humanidade”, diz. Os principais riscos, segundo ela, são desemprego, desinformação, efeitos negativos sobre o meio ambiente e potencial desestabilização da democracia.
Bogdan-Martin reforçou comentários do secretário-geral da ONU, António Guterres, sobre a necessidade de proteções baseadas em direitos humanos, transparência e responsabilidade no desenvolvimento da IA. Eles estiveram na conferência “AI for Good”, na semana passada em Genebra.
A conferência foi organizada pela ITU, a principal plataforma de aplicação da IA para acelerar os 17 Objetivos de Desenvolvimento Sustentável da ONU (ODS, Agenda 2030), em parceria com 40 agências irmãs da ONU e o governo suíço. A edição de 2023 contou com mais de 6 mil participantes e cerca de 100 palestrantes, entre eles Yuval Noah Harari, Stuart Russell, Ray Kurzweil e Gary Marcus.
Mudanças climáticas, desinformação e regulação são temas que preocupam particularmente a comunidade envolvida com IA. No tema ambiental, acredita-se que a inteligência artificial pode contribuir na identificação, classificação e monitoramento das mudanças climáticas. Diversos modelos desenvolvidos por startups foram apresentados na conferência. O paradoxo é que o atual caminho de inovação passa por agregar cada vez mais dados, afetando negativamente o meio ambiente, já que os sistemas que processam a IA são intensivos em energia e emissão de CO2.
Há unanimidade quanto à urgência na regulamentação da IA, bem como o reconhecimento de que a proteção social depende da convergência de diretrizes compartilhadas globalmente, autorregulação pelas empresas e arcabouço regulatório pelo poder público. A diretora de operações do Google DeepMind, Lila Ibrahim, argumenta que os produtos de IA só devem ser disponibilizados ao público após minuciosa investigação para identificar e mitigar os riscos.
Entre os representantes de países de língua não inglesa, principalmente do chamado Sul Global como México, Filipinas e Brasil, a hegemonia do idioma inglês foi citada não apenas por comprometer a eficiência e a credibilidade dos sistemas quando acessados por usuário de outros idiomas, mas como poderoso veículo de hegemonia cultural (no caso, monocultura americana).
A desinformação é considerada o maior risco ético a ser evitado. Harari teme a capacidade da IA generativa de criar conteúdo e difundi-lo nas redes sociais. “A linguagem é o diferencial do ser humano, e a IA está ameaçando essa supremacia ao ser capaz de se comunicar por meio da linguagem. Se não regulamentar logo a IA, com certeza a democracia será destruída, não tem como sobreviver com tanto conteúdo sendo produzido automaticamente”, alertou o historiador.
Gray Marcus lembra que as fake news não são em si um fenômeno novo, o novo é a dimensão por conta das tecnologias digitais, sobretudo a IA generativa, como o ChatGPT.
A lacuna de conhecimento dos legisladores sobre a tecnologia é considerada uma barreira no processo regulatório e na posterior fiscalização. Harari presume que não temos instituições capacitadas para tal função e propôs a formação de um fundo com o propósito de financiar salários competitivos para atrair talentos para o setor público. “Se todos os talentos vão para o setor privado, temos um problema”, ponderou Harari.
Harari, assim como o cientista da computação britânico Stuart Russell, contrariara a visão predominante de que a IA terá protagonismo na construção de um mundo melhor, com previsões de cenários distópicos. Para Russell, nos próximos anos serão lançados sistemas de linguagem natural baseados em IA cada vez mais poderosos, que ele chamou de “tsunami de aplicações”.
“Eu não espero que a IA estará sempre alinhada com o que é bom para os humanos. Quando a IA tiver objetivos próprios será difícil manter o controle”, disse Russell. Por seu lado, Harari considera o ambiente atual o pior da história da humanidade, fruto da inédita capacidade da tecnologia de criar ideias; ele considera a IA a mais sofisticada tecnologia de comunicação jamais produzida e, sendo muito difícil frear o seu desenvolvimento, o que nos resta é garantir que não cause danos.
Com uma visão mais positiva, o futurista americano Ray Kurzweil crê que a IA pode nos transformar em humanos melhores, agregando novas conexões, fazendo parte de nossa inteligência. Ele vaticina: em 2030 os dispositivos inteligentes vão estar dentro de nossos corpos: “Atualmente são os modelos de linguagem, em três anos pode ser outra coisa. A tecnologia levava décadas para avançar, a partir de agora será muito, muito rápido”.
Russell e Harari, contudo, relativizaram suas preocupações. “A incerteza nos dá poder sobre as máquinas”, disse Russell. Ou seja, a imprevisibilidade do mundo é vantajosa para os seres humanos. Harari, por sua vez, reconheceu que “a IA é a mais perigosa tecnologia na história da humanidade, mas também a mais benéfica, e ninguém sabe onde vamos estar nos próximos dez anos”. Como argumenta Kurzweil, “o futuro da humanidade não está dado, assim como o futuro da IA depende de como ela for desenvolvida e usada”.