Visitas: 163
Las compañías de tecnología están llevando a cabo una campaña para doblar la investigación y la regulación para su beneficio; La sociedad debe contraatacar.
Cortesia NATURE Yochai Benkler : La industria se ha movilizado para dar forma a la ciencia, la moral y las leyes de la inteligencia artificial. El 10 de mayo, se enviarán cartas de intención a la Fundación Nacional de Ciencia de EE. UU. (NSF, por sus siglas en inglés) para un nuevo programa de financiamiento para proyectos sobre Equidad en Inteligencia Artificial, en colaboración con Amazon. En abril, después de que la Comisión Europea publicara las Pautas de ética para la IA confiable, un miembro académico del grupo de expertos que las produjo describió su creación como un «lavado de ética» dominado por la industria. En marzo, Google formó una junta de ética de AI, que se disolvió una semana después en medio de la controversia. En enero, Facebook invirtió US $ 7,5 millones en un centro de ética e inteligencia artificial en la Universidad Técnica de Munich, Alemania.
El aporte de las compañías para configurar el futuro de la IA es esencial, pero no pueden retener el poder que han adquirido para enmarcar la investigación sobre cómo sus sistemas impactan en la sociedad o sobre cómo evaluamos el efecto moralmente. Los gobiernos y las entidades públicamente responsables deben respaldar la investigación independiente e insistir en que la industria comparta los datos suficientes para que pueda ser responsable.
Los sistemas de decisión algorítmica tocan todos los rincones de nuestras vidas: tratamientos médicos y seguros; hipotecas y transporte; vigilancia, libertad bajo fianza y libertad condicional; Noticias y publicidad política y comercial. Debido a que los algoritmos están capacitados sobre datos existentes que reflejan desigualdades sociales, corren el riesgo de perpetuar la injusticia sistémica a menos que las personas diseñen conscientemente medidas compensatorias. Por ejemplo, los sistemas de inteligencia artificial para predecir la reincidencia podrían incorporar la vigilancia policial diferencial de las comunidades en blanco y negro, o aquellos para calificar el éxito probable de los candidatos a puestos de trabajo podrían basarse en una historia de promociones basadas en el género.
Dentro de una caja negra algorítmica, los sesgos sociales se vuelven invisibles e irresponsables. Cuando se diseñan solo para fines de lucro, los algoritmos necesariamente divergen del interés público: las asimetrías de información, el poder de negociación y las externalidades impregnan estos mercados. Por ejemplo, Facebook y YouTube se benefician de las personas que permanecen en sus sitios y ofrecen a los anunciantes tecnología para entregar mensajes dirigidos con precisión. Eso podría resultar ilegal o peligroso. El Departamento de Vivienda y Desarrollo Urbano de EE. UU. Ha acusado a Facebook de permitir la discriminación en los anuncios de vivienda (los correlatos de raza y religión podrían usarse para afectar a quién ve una lista). El algoritmo de recomendación de YouTube se ha implicado en fomentar conspiraciones contra las vacunas. Veo este tipo de servicio como las emisiones de la industria de alta tecnología: traen ganancias, pero los costos son asumidos por la sociedad. (Las empresas han declarado que trabajan para garantizar que sus productos sean socialmente responsables).
Desde los teléfonos móviles hasta la atención médica, los gobiernos, los académicos y las organizaciones de la sociedad civil se esfuerzan por estudiar cómo las tecnologías afectan a la sociedad y proporcionar un control sobre las organizaciones impulsadas por el mercado. Los actores de la industria intervienen estratégicamente en esos esfuerzos.
Cuando la NSF le otorga a Amazon la legitimidad de su proceso para un programa de $ 7.6 millones (0.03% del gasto en investigación y desarrollo de Amazon 2018), socava el papel de la investigación pública como un contrapeso a la investigación financiada por la industria. Una universidad renuncia a su rol central cuando acepta fondos de una firma para estudiar las implicaciones morales, políticas y legales de las prácticas que son fundamentales para el modelo de negocio de esa firma. También lo hacen los gobiernos que delegan marcos de políticas a paneles dominados por la industria. Sí, las instituciones han levantado algunas salvaguardas. NSF otorgará becas de investigación a través de su proceso normal de revisión por pares, sin el aporte de Amazon, pero Amazon conserva los medios contractuales, técnicos y organizativos para promover los proyectos que se ajusten a sus objetivos. La Universidad Técnica de Munich informa que los fondos de Facebook vienen sin obligaciones ni condiciones, y que la empresa no tendrá un lugar en el consejo asesor del centro. En mi opinión, el riesgo y la percepción de una influencia indebida siguen siendo demasiado grandes, dada la magnitud de este don de fuente única y cómo se relaciona directamente con los intereses del donante.
Las compañías de tecnología líderes de hoy nacieron en un momento de alta fe en los mecanismos basados en el mercado. En la década de 1990, se restringió la regulación y se privatizaron instalaciones públicas como ferrocarriles y servicios públicos. Inicialmente aclamado por traer democracia y crecimiento, las compañías de tecnología preeminentes fueron objeto de sospecha después de la Gran Recesión de finales de la década de 2000. Alemania, Australia y el Reino Unido han aprobado o están planificando leyes para imponer multas a las empresas o la responsabilidad personal de los ejecutivos por los males de los que ahora se culpa a las empresas.
Este nuevo celo regulador podría ser una reacción exagerada. (La ansiedad tecnológica sin una investigación confiable no será mejor como guía de política que el utopismo tecnológico). Sin embargo, crea incentivos para que la industria coopere.
Los gobiernos deben usar ese apalancamiento para exigir que las empresas compartan datos en bases de datos debidamente protegidas con acceso otorgado a investigadores con aislamiento público y fondos adecuados. La participación de la industria en los paneles de políticas debe ser estrictamente limitada.
La industria tiene los datos y la experiencia necesarios para diseñar la equidad en los sistemas de inteligencia artificial. No se puede excluir de los procesos mediante los cuales investigamos qué preocupaciones son reales y cuáles salvaguardas funcionan, pero no se debe permitir que las dirijan. Las organizaciones que trabajan para garantizar que AI sea justa y beneficiosa deben ser financiadas con fondos públicos, sujetas a revisión por pares y transparentes para la sociedad civil. Y la sociedad debe exigir una mayor inversión pública en la investigación independiente en lugar de esperar que los fondos de la industria llenen el vacío sin corromper el proceso.
Naturaleza 569, 161 (2019)
doi: 10.1038 / d41586-019-01413-1
Dejar una contestacion