Inteligencia artificial – ¿Cuándo debería ser una inteligencia beneficiosa?

artificial intelligence
Does artificial intelligence see the "bicycle" or the "green line" in this image? In fact, it is not good to say it. Photo / illustration: Eivind Torgersen / UiO

Visitas: 45

Podemos estar seguros de que una inteligencia artificial autodidacta realmente «ve» lo que queremos ver?

Courtesy Titan UiO by Eivind Torgersen :  Ahora, a cada 20 minutos, un pequeño autobús sin conductor pasa por el paseo marítimo del puerto de Oslo. Con una velocidad máxima de 25 kilómetros por hora, transporta pasajeros de Vippetangen a Kontraskjæret. Los coches sin conductor son quizás la cosa más obvia a pensar cuando se trata de inteligencia artificial (IA). Tanto cuando hablamos de lo que es bueno sobre eso, y cuando hablamos de lo que puede ir mal sin gente detrás del volante.

A los autos, por supuesto, se les enseña a andar en el tránsito, pero lo más revolucionario es que ellos aprenden mientras conducen y, por lo tanto, se convierten en mejores conductores.

inteligencia artificial
El autobús Mads corre sin conductor por el paseo marítimo del puerto de Oslo, desde Vippetangen hasta Kontraskjæret. Foto: Eivind Torgersen / UiO

Inteligencia artificial en el hospital y consultorio médico.

Lejos de cualquier inteligencia artificial tan visible como un automóvil que podría encontrarse en el tráfico. No solo será capaz de reemplazar a las personas.

Una inteligencia artificial y de autoaprendizaje también puede reemplazar los algoritmos de datos tradicionales, por ejemplo, en los escáneres de IRM que crean imágenes de su cerebro.

El año pasado, la Administración de Drogas y Alimentos de los Estados Unidos (FDA) aprobó el uso de inteligencia artificial para revelar el trastorno de la retinopatía diabética. Esta es una enfermedad de la retina que afecta a los diabéticos.

– Esto es revolucionario, dice el matemático Anders Hansen.

– Esto significa que ahora se puede usar esto en un contexto comercial.

El Sr. Hansen es Profesor en la Universidad de Oslo, pero pasa la mayor parte del tiempo en la Universidad de Cambridge, donde dirige su propio grupo de investigación sobre inteligencia artificial.

Luego, los pacientes diabéticos pueden venir a la clínica y tomar una fotografía del globo ocular. Pero no es un médico u óptico quien analiza la imagen. Es un algoritmo de inteligencia artificial que emite una respuesta basada en lo que ha aprendido a buscar.

O bien la córnea está sana o está afectada por la retinopatía diabética.

«Lo hace mejor que yo, y soy un especialista en córnea muy experimentado», dijo el inventor Michael Abramhoff al periódico en línea NPR.

No sé lo que hace la inteligencia artificial.

La inteligencia artificial que evalúa las imágenes de los ojos del diabético es lo suficientemente precisa para que la FDA piense que está bien. Es decir, lo hace al menos tan bien como una evaluación humana.

Pero la inteligencia artificial también puede comportarse de una manera que un ser humano nunca haría.

«Realmente no sabemos lo que hace la inteligencia artificial», dice Anders Hansen.

Su investigación se trata de mostrar lo que realmente la IA hace.

– Y puede parecer que están captando cosas completamente diferentes de lo que el hombre identifica.

Aprendizaje profundo

Esto se debe a que la inteligencia artificial difiere de un algoritmo de datos tradicional.

El último es simplemente una receta que entrega una respuesta cuando recibe información. Una respuesta que está completamente predeterminada y depende de lo que le hayas dicho que haga.

Prof. Anders Hansen do Departamento de Matemática

Una inteligencia artificial es también un algoritmo, pero mucho más avanzado.

– Lo que es diferente de un algoritmo de inteligencia artificial es aprender de la experiencia anterior. Basado en este aprendizaje, tomará una entrada y hará otra cosa, dice Hansen.

Primero pasa por un campo de entrenamiento intensivo. Esperemos que allí aprenda lo que quieres que ella sea.

– Cuando el aprendizaje se realiza, uno tiene un algoritmo terminado. Este algoritmo puede aprender más y más, pero es el primer aprendizaje el más importante. Esa es la gran diferencia, dice Hansen.

Desde 2012, lo que se conoce como aprendizaje profundo es el método dominante de enseñanza de inteligencia artificial. Y allí, en esta profundidad, no es tan fácil saber qué está pasando.

«No sabemos muy bien cómo se desarrolla el mecanismo de aprendizaje en la inteligencia artificial, y eso es lo que estamos tratando de descubrir», dice Hansen.

No es necesariamente tan fácil.

Lugar para problemas

Hansen y sus colegas ponen inteligencias artificiales en muestras relativamente simples para ver cómo pueden ser los objetos de aprendizaje. A veces vienen con respuestas bastante extrañas, como cuándo reconocer diferentes animales o cuando se muestran imágenes en blanco y negro con rayas horizontales y verticales.

Una variante un poco más complicada es una inteligencia artificial que se ha entrenado, que ha aprendido, para determinar si un lunar es inofensivo o si puede ser maligno. Solo analizando una imagen.

Entonces es muy importante que realmente lea la imagen correctamente. Lo mismo es absolutamente necesario en otro campo de desarrollo de inteligencia artificial, el reconocimiento de voz. Si va a obtener una respuesta sensata de Peter o Alexa en su teléfono móvil, primero debe entender lo que realmente le está pidiendo que haga.

Las pruebas demuestran que es lo artificial

La inteligencia sobre la mancha es bastante correcta. Lo extraño es que es muy seguro incluso cuando está equivocada. Y lo que parece bastante arbitrario exactamente por qué y cuándo está equivocada.

 

inteligencia artificial
Ahora hay una inteligencia artificial que puede evaluar cuán peligroso es una mancha. Pero a veces también sale mal. Foto de ilustración: Rufar / Colourbox

Cuando los científicos inclinaron solo un poco la imagen, la inteligencia artificial podría cambiar de opinión. Desde tener mucha confianza en que la mancha era inofensiva, hasta estar muy segura de lo contrario.

«No entendemos muy bien lo que ha logrado reconocer, porque la imagen es exactamente la misma», dice Hansen.

– Nuestra tesis es que hay una estructura falsa en la imagen. Algo que se encuentra en la imagen y que el hombre no puede percibir, pero que la máquina detecta y encuentra, dice.

¿Cómo sabemos lo que muestra?

Tal falsa estructura no será detectada por un ojo humano.

– Para la máquina, la imagen no es otra que los números que vienen, explica Hansen.

Por lo tanto, no es fácil descubrir los posibles errores para nosotros que estamos leyendo imágenes de una manera completamente diferente.

Pero para mostrar cuál es el problema con las estructuras falsas, todavía tenemos que usar un ejemplo que también podamos ver.

Supongamos que aprendes un idioma extranjero y ves una colección de imágenes que están acompañadas por las palabras de este idioma para «bicicleta». Todas las imágenes muestran bicicletas en diferentes variedades, pero también están equipadas con una línea verde.

inteligencia artificial
Usando estas imágenes, aprenderá la palabra «bicicleta» en un idioma extranjero. Pero, ¿y si piensas que la palabra significa «línea verde»? Foto: Eivind Torgersen / UiO

Después de este proceso de entrenamiento, usted, o la inteligencia artificial, se exponen a imágenes similares y responden cada vez que es una «bicicleta».

¿Pero puedes estar seguro de que es la bicicleta la que se volverá a reconocer? ¿Qué pasa si la inteligencia artificial une la palabra a «línea verde horizontal». O simplemente «línea verde». O simplemente «accidente cerebrovascular». O algo completamente diferente, incluso.

La línea verde es un ejemplo de una estructura falsa. También puede haber otras similares en las imágenes de la bicicleta, cosas que no son visibles para nosotros, pero que capturara una inteligencia artificial.

Hay algo como esto que Hansen y sus colegas creen que está oculto en las imágenes del lunar. Algo que hace que la inteligencia artificial cambie la percepción.

Este es solo uno de los muchos ejemplos. Hansen señala que la inteligencia artificial parece cometer errores simples. Más los humanos nunca lo haríamos.

«Es bastante obvio que la inteligencia artificial» piensa «de manera completamente diferente al cerebro humano», dice Hansen.

Ambiente de la Inteligencia Artificial Dividido

Dado que la inteligencia artificial es tan diferente, el comportamiento no humano también puede tener otras consecuencias desafortunadas. Por ejemplo, puede ser engañado.

Esto puede ser explotado por estafadores, por ejemplo, en el cuidado de la salud o en asuntos de seguros.

Tales incertidumbres, según Hansen, han llevado a una gran división en la comunidad de investigación que persigue la inteligencia artificial. Algunos han argumentado que el aprendizaje automático es actualmente comparable a la alquimia medieval. Algo que ha hecho insultos mortales a otros.

Anders Hansen se encuentra entre los que piden precaución.

– Ahora tenemos que pensar en esto antes de introducirlo a gran escala, dice. – Si podemos detectar errores en imágenes muy simples, ¿cómo será en imágenes más complejas?

No significa que detendrá o ralentizará la investigación sobre inteligencia artificial. Piensa que no es posible.

Por ejemplo, la decisión de la FDA sobre la diabetes muestra que la inteligencia artificial está en pleno desarrollo en los servicios de salud.

– La FDA es seria. Al aprobar el uso de la inteligencia artificial, se basa en una investigación científica adecuada. De la misma manera que un medicamento que sale al mercado, dice Hansen.

La prueba del lunar mencionada anteriormente también puede considerarse como beneficiosa para la sociedad porque es al menos tan precisa como un ser humano. Aunque también falla a veces. E incluso si no entiendes completamente por qué está equivocada.

– Entonces, encontramos un algoritmo de reconocimiento simple que funciona bastante bien para fines prácticos, aunque no esta cerca de lo que una persona puede hacer.

Puede suceder mañana o dentro de 500 años

El camino a seguir se determina no sólo por los matemáticos y los programadores. Es tanto sobre política, privacidad e intereses comerciales.

– Los militares estadounidenses están gastando enormes cantidades en eso ahora.

– La inteligencia artificial está definitivamente aquí para quedarse, dice Hansen.

Pero él no se atreve a predecir cuán rápido o en qué dirección va el camino.

– No sabemos si habrá un gran avance mañana o si tenemos que esperar 500 años para el próximo paso.

Persona de contacto: Anders Hansen, profesor del Departamento de Matemáticas

Articulo relacionado: Nokia construye asociación estratégica redes 5G e IoT en Japón

Sé el primero en comentar

Dejar una contestacion

Tu dirección de correo electrónico no será publicada.


*