Não deixe a indústria escrever as regras para o AI

Indústria AI
Não deixe a indústria escrever as regras para o AI

Views: 73

As empresas de tecnologia estão realizando uma campanha para desviar pesquisas e regulamentações em benefício delas; a sociedade deve reagir.

Cortesia NATURE Yochai Benkler A indústria se mobilizou para moldar a ciência, a moralidade e as leis da inteligência artificial. No dia 10 de maio, as cartas de intenções são devidas à Fundação Nacional de Ciências dos EUA (NSF) para um novo programa de financiamento para projetos de Justiça em Inteligência Artificial, em colaboração com a Amazon. Em abril, depois que a Comissão Europeia divulgou as Diretrizes de Ética para a IA Confiável, um membro acadêmico do grupo de especialistas que as produziu descreveu sua criação como “lavagem ética” dominada pela indústria. Em março, o Google formou um conselho de ética em IA, que foi dissolvido uma semana depois, em meio a controvérsias. Em janeiro, o Facebook investiu US $ 7,5 milhões em um centro de ética e inteligência artificial na Universidade Técnica de Munique, na Alemanha.

A contribuição das empresas para moldar o futuro da IA ​​é essencial, mas elas não podem reter o poder que adquiriram para estruturar a pesquisa sobre como seus sistemas impactam a sociedade ou como avaliamos o efeito moralmente. Os governos e as entidades publicamente responsáveis ​​devem apoiar a pesquisa independente e insistir que a indústria compartilha dados suficientes para que ela seja mantida responsável.

Os sistemas de decisão algorítmica tocam todos os cantos de nossas vidas: tratamentos médicos e seguros; hipotecas e transporte; policiamento, fiança e liberdade condicional; newsfeeds e propaganda política e comercial. Como os algoritmos são treinados em dados existentes que refletem as desigualdades sociais, eles correm o risco de perpetuar a injustiça sistêmica, a menos que as pessoas conscientemente projetem medidas compensatórias. Por exemplo, os sistemas de inteligência artificial para prever a reincidência podem incorporar o policiamento diferencial das comunidades negras e brancas, ou os que avaliam o provável sucesso dos candidatos a emprego podem se basear em uma história de promoções com enfoque de gênero.

Dentro de uma caixa negra algorítmica, os preconceitos sociais são tornados invisíveis e inexplicáveis. Quando projetados apenas para fins lucrativos, os algoritmos necessariamente divergem do interesse público – as assimetrias de informação, o poder de barganha e as externalidades permeiam esses mercados. Por exemplo, o Facebook e o YouTube lucram com as pessoas que ficam em seus sites e oferecem aos anunciantes a tecnologia para entregar mensagens direcionadas com precisão. Isso pode ser ilegal ou perigoso. O Departamento de Habitação e Desenvolvimento Urbano dos EUA acusou o Facebook de permitir a discriminação em anúncios imobiliários (correlatos de raça e religião podem ser usados ​​para afetar quem vê uma listagem). O algoritmo de recomendação do YouTube foi implicado em conspirações anti-vacinas. Eu vejo esse tipo de serviço como as emissões da indústria de alta tecnologia: elas trazem lucros, mas os custos são suportados pela sociedade. (As empresas declararam que trabalham para garantir que seus produtos sejam socialmente responsáveis.)

De telefones celulares a assistência médica, governos, acadêmicos e organizações da sociedade civil se esforçam para estudar como as tecnologias afetam a sociedade e para fornecer uma verificação das organizações voltadas para o mercado. Os atores da indústria intervêm estrategicamente nesses esforços.

Quando a NSF empresta à Amazon a legitimidade de seu processo para um programa de US $ 7,6 milhões (0,03% dos gastos em pesquisa e desenvolvimento da Amazon em 2018), isso enfraquece o papel da pesquisa pública como um contrapeso à pesquisa financiada pela indústria. Uma universidade abdica de seu papel central quando aceita financiamento de uma empresa para estudar as implicações morais, políticas e jurídicas de práticas que são fundamentais para o modelo de negócios daquela empresa. O mesmo ocorre com os governos que delegam estruturas de políticas a painéis dominados pela indústria. Sim, as instituições ergueram algumas salvaguardas. A NSF concederá bolsas de pesquisa por meio de seu processo normal de revisão por pares, sem a contribuição da Amazon, mas a Amazon reterá os meios contratuais, técnicos e organizacionais para promover os projetos que atendam a seus objetivos. A Universidade Técnica de Munique informa que os fundos do Facebook vêm sem obrigações ou condições, e que a empresa não terá um lugar no conselho consultivo do centro. Na minha opinião, o risco e a percepção de influência indevida ainda são muito grandes, dada a magnitude desse presente de fonte única e como ele é diretamente relacionado aos interesses do doador.

As principais empresas de tecnologia de hoje nasceram em um momento de alta fé em mecanismos baseados no mercado. Nos anos 90, a regulamentação era restrita e as instalações públicas, como ferrovias e serviços públicos, foram privatizadas. Inicialmente saudada por trazer democracia e crescimento, as empresas de tecnologia proeminentes ficaram sob suspeita após a Grande Recessão do final dos anos 2000. A Alemanha, a Austrália e o Reino Unido já aprovaram ou estão planejando leis para impor multas elevadas a firmas ou responsabilidades pessoais de executivos pelos males pelos quais as empresas agora são culpadas.

Este novo zelo regulador pode ser uma reação exagerada. (A ansiedade da tecnologia sem pesquisa confiável não será melhor como um guia para a política do que o utopismo tecnológico). Ainda assim, cria incentivos para a indústria cooperar.

Os governos devem usar essa alavancagem para exigir que as empresas compartilhem dados em bancos de dados protegidos adequadamente com acesso a pesquisadores apropriadamente isolados e financiados por fundos públicos. A participação da indústria nos painéis de políticas deve ser estritamente limitada.

A indústria tem os dados e o conhecimento necessários para projetar justiça nos sistemas de IA. Não pode ser excluído dos processos pelos quais investigamos quais preocupações são reais e quais salvaguardas funcionam, mas não se deve permitir que elas sejam dirigidas. As organizações que trabalham para assegurar que a IA seja justa e benéfica devem ser financiadas com fundos públicos, sujeitas a revisão pelos pares e transparentes para a sociedade civil. E a sociedade deve exigir mais investimento público em pesquisa independente do que esperar que o financiamento da indústria preencha a lacuna sem corromper o processo.

Natureza 569 , 161 (2019)

doi: 10.1038 / d41586-019-01413-1

Related article: IA pode dar maior poder a informática?

Seja o primeiro a comentar

Faça um comentário

Seu e-mail não será publicado.


*