Views: 54
– A França e o Canadá estão estabelecendo um comitê internacional para aconselhar sobre a ética da inteligência artificial. O grupo deve ser apoiado e protegido de influência indevida.
Fonte Nature: Ética IA – A China quer ser o líder mundial em inteligência artificial (AI) até 2030. Os Estados Unidos têm um plano estratégico para manter o primeiro lugar e, por algumas medidas, já lideram influentes trabalhos, hardware e talentos de inteligência artificial. Outras nações ricas também estão disputando um lugar na liga mundial de IA.
Uma espécie de corrida armamentista da IA está em andamento, e os governos e as corporações estão despejando quantias espantosas em pesquisa e desenvolvimento. O prêmio, e é um grande, é que a previsão é que a AI adicione cerca de US $ 15 trilhões à economia mundial até 2030 – mais de quatro vezes o produto interno bruto da Alemanha em 2017. São US $ 15 trilhões em novas empresas, empregos, produtos, formas de trabalho e formas de lazer, e isso explica por que os países estão competindo tão vigorosamente por uma fatia do bolo.
Para todos os upsides, a IA traz riscos, desde como as tecnologias de reconhecimento facial rastreiam e identificam os indivíduos, até a manipulação das eleições. No entanto, apesar da vigorosa discussão acadêmica e pública, os governos têm demorado a priorizar a ética da IA. Os Estados Unidos e a China estão muito preocupados com o prêmio principal e mostram pouco apetite para trabalhar com outros países e desenvolver códigos de prática.
Este vácuo de liderança, no entanto, criou oportunidades para os outros. As agências nacionais de pesquisa da França, Alemanha e Japão se uniram em uma chamada para propostas de pesquisa sobre IA que incorpora uma dimensão ética. O Reino Unido criou um novo centro de ética e inovação de dados. Autoridades do Canadá e da França, entretanto, têm trabalhado para estabelecer um Painel Internacional de Inteligência Artificial (IPAI), a ser lançado na cúpula do G7 de líderes mundiais em Biarritz, França, de 24 a 26 de agosto.
A ampla ambição do painel é criar uma rede especializada que aconselhe os governos sobre questões de IA, como privacidade de dados, confiança pública e direitos humanos. Seus membros incluirão a comunidade de pesquisa, governos, indústria e organizações da sociedade civil.
Este é um passo bem-vindo, mas a arquitetura do painel se beneficiaria de mais discussões. A inspiração da IPAI parece ser o Painel Intergovernamental sobre Mudança Climática. Mas existem diferenças importantes. Primeiro, as Nações Unidas não estão envolvidas – portanto, “internacionais” no título, e não “intergovernamentais”. Isso poderia ser uma concessão para aqueles, incluindo o governo americano, que são céticos em relação ao multilateralismo. Em segundo lugar, os representantes da indústria serão mais proeminentes. Isso é importante, porque as empresas têm acesso a grandes quantidades de dados e são as que impulsionam o desenvolvimento de tecnologias de IA.
No entanto, para que o painel seja credível – especialmente quando se trata de confiança pública em IA – o secretariado e os governos patrocinadores precisam garantir que ele siga as evidências e que seu conselho esteja livre de interferências. Para conseguir isso, os membros do painel precisarão ser protegidos de lobby direto ou indireto por empresas, grupos de pressão e governos – especialmente por aqueles que consideram a ética um freio à inovação. Isso também significa que os membros do painel precisarão ser escolhidos por seus conhecimentos, não por qual organização eles representam.
A primeira declaração sobre IA dos líderes das 20 maiores economias ocorreu em junho – os Princípios da AI do G20 – e os Estados Unidos e a China estavam entre os que assinaram o acordo. Isto é notável, dada a atual guerra comercial EUA-China, mas, ao mesmo tempo, a declaração conjunta é pouco mais que um gesto simbólico que compromete as nações a uma abordagem “centrada no ser humano” da IA.
Para ser credível, o IPAI tem que ser diferente. Precisa do apoio de mais países, mas também deve se comprometer com abertura e transparência. A assessoria científica deve ser publicada na íntegra. As reuniões devem estar abertas aos observadores e à mídia. De forma reconfortante, o secretariado do painel é descrito em documentos como “independente”. Esse é um sinal importante.
Os arquitetos e membros do painel da IPAI encontrarão situações em que interesses poderosos tentarão influenciar o que dizem. A orientação e, por fim, a regulamentação de uma tecnologia inovadora e disruptiva precisará de uma liderança ousada. Eles devem se esforçar para ter sucesso.
Artigo relacionado: IA Geopolítica – Projeto explorando a geopolítica da inteligência artificial
ética IA
Faça um comentário