Visitas: 11
Los proveedores de servicios comerciales en la nube dan un impulso a la informática con Inteligencia Artificial en el MIT.
Artículo MIT por Kim Martineau | Las redes neuronales han brindado a los investigadores una herramienta poderosa para mirar hacia el futuro y hacer predicciones. Pero un inconveniente es su insaciable necesidad de datos y poder de cómputo para procesar toda esa información. En el MIT, se estima que la demanda de cómputo es cinco veces mayor que la que el Instituto puede ofrecer. Para ayudar a aliviar la crisis, la industria ha intervenido. Una supercomputadora de $ 11.6 millones recientemente donada por IBM entra en línea este otoño, y en el último año, tanto IBM como Google han proporcionado créditos en la nube a MIT Quest for Intelligence para su distribución en todo el campus. A continuación, se destacan cuatro proyectos posibles de IA gracias a las donaciones en la nube de IBM y Google.
Redes neuronales más pequeñas, rápidas e inteligentes IA
Para reconocer a un gato en una imagen, un modelo de aprendizaje profundo puede necesitar ver millones de fotos antes de que sus neuronas artificiales «aprendan» a identificar a un gato. El proceso es computacionalmente intenso y conlleva un alto costo ambiental, como lo ha resaltado una nueva investigación que intenta medir la huella de carbono de la inteligencia artificial (IA).
Pero puede haber una forma más eficiente. Una nueva investigación del MIT muestra que los modelos solo necesitan una fracción del tamaño. «Cuando entrenas una red grande, hay una pequeña que podría haber hecho todo», dice Jonathan Frankle, un estudiante graduado en el Departamento de Ingeniería Eléctrica e Informática (EECS) del MIT.
Con el coautor del estudio y profesor de EECS Michael Carbin, Frankle estima que una red neuronal podría funcionar con una décima parte del número de conexiones si se encuentra la subred correcta desde el principio. Normalmente, las redes neuronales se recortan después del proceso de entrenamiento, y se eliminan las conexiones irrelevantes. ¿Por qué no entrenar a la pequeña modelo para empezar, se preguntó Frankle?
Experimentando con una red de dos neuronas en su computadora portátil, Frankle obtuvo resultados alentadores y se mudó a conjuntos de datos de imágenes más grandes como MNIST y CIFAR-10, tomando prestadas GPU donde pudo. Finalmente, a través de IBM Cloud, aseguró suficiente potencia informática para entrenar un modelo real de ResNet. «Todo lo que había hecho anteriormente eran experimentos con juguetes», dice. «Finalmente pude ejecutar docenas de configuraciones diferentes para asegurarme de poder hacer las reclamaciones en nuestro periódico».
Frankle habló desde las oficinas de Facebook, donde trabajó durante el verano para explorar ideas planteadas por su artículo de Hipoteca de Lotería, uno de los dos elegidos para un premio al mejor artículo en la Conferencia Internacional de Representaciones de Aprendizaje de este año. Las posibles aplicaciones para el trabajo van más allá de la clasificación de imágenes, dice Frankle, e incluyen aprendizaje por refuerzo y modelos de procesamiento del lenguaje natural. Los investigadores de Facebook AI Research, Princeton University y Uber ya han publicado estudios de seguimiento.
«Lo que me encanta de las redes neuronales es que aún no hemos sentado las bases», dice Frankle, quien recientemente pasó de estudiar criptografía y política tecnológica a IA. «Realmente no entendemos cómo aprende, dónde es bueno y dónde falla. Esto es física 1000 años antes de Newton.
Hechos distinguido de noticias falsas IA
Las plataformas de redes como Facebook y Twitter han hecho que sea más fácil que nunca encontrar noticias de calidad. Pero con demasiada frecuencia, las noticias reales se ven ahogadas por información engañosa o directamente falsa publicada en línea. La confusión sobre un video reciente de la presidenta de la Cámara de Representantes de los EE. UU., Nancy Pelosi, manipulada para hacerla sonar borracha es solo el último ejemplo de la información errónea de la amenaza y la falsa noticia para la democracia.
«Ahora puedes poner casi cualquier cosa en Internet, y algunas personas lo creerán», dice Moin Nadeem, estudiante de último año y mayor de EECS en el MIT.
Si la tecnología ayudó a crear el problema, también puede ayudar a solucionarlo. Esa fue la razón de Nadeem para elegir un proyecto superUROP centrado en la construcción de un sistema automatizado para combatir las noticias falsas y engañosas. Trabajando en el laboratorio de James Glass, investigador en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT, y supervisado por Mitra Mohtarami, Nadeem ayudó a capacitar a un modelo de lenguaje para verificar las afirmaciones al buscar en Wikipedia y tres tipos de fuentes de noticias calificadas por los periodistas de alta calidad, de calidad mixta o de baja calidad.
Para verificar un reclamo, el modelo mide qué tan de acuerdo están las fuentes, con puntajes de acuerdo más altos que indican que el reclamo es probablemente cierto. Un alto puntaje de desacuerdo para un reclamo como «ISIS se infiltra en los Estados Unidos» es un fuerte indicador de noticias falsas. Un inconveniente de este método, dice, es que el modelo no identifica la verdad independiente sino que describe lo que la mayoría de la gente piensa que es verdad.
Con la ayuda de Google Cloud Platform, Nadeem realizó experimentos y creó un sitio web interactivo que permite a los usuarios evaluar instantáneamente la precisión de un reclamo. Él y sus coautores presentaron sus resultados en la conferencia de la Asociación Norteamericana de Lingüística Computacional (NAACL) en junio y continúan expandiendo el trabajo.
«El dicho solía ser que ver es creer», dice Nadeem, en este video sobre su trabajo. «Pero estamos entrando en un mundo donde eso no es cierto. Si las personas no pueden confiar en sus ojos y oídos, ¿se puede confiar en qué podemos confiar? »
Visualizando un clima cálido IA
Desde el aumento de los mares hasta el aumento de las sequías, los efectos del cambio climático ya se están sintiendo. Dentro de unas décadas, el mundo será un lugar más cálido, seco y más impredecible. Brandon Leshchinskiy, un estudiante graduado en el Departamento de Aeronáutica y Astronáutica del MIT (AeroAstro), está experimentando con redes adversas generativas, o GAN, para imaginar cómo se verá la Tierra en ese momento.
Las GAN producen imágenes hiperrealistas al enfrentar una red neuronal con otra. La primera red aprende la estructura subyacente de un conjunto de imágenes e intenta reproducirlas, mientras que la segunda decide qué imágenes parecen inverosímiles y le dice a la primera red que intente nuevamente.
Inspirado por investigadores que utilizaron GAN para visualizar las proyecciones de aumento del nivel del mar a partir de imágenes de la vista de la calle, Leshchinskiy quería ver si las imágenes de satélite podían personalizar de manera similar las proyecciones climáticas. Con su asesor, el profesor de AeroAstro Dava Newman, Leshchinskiy está utilizando actualmente créditos gratuitos de IBM Cloud para entrenar un par de GAN en imágenes de la costa este de los EE. UU. Con sus puntos de elevación correspondientes. El objetivo es visualizar cómo las proyecciones de aumento del nivel del mar para 2050 redibujarán la costa. Si el proyecto funciona, Leshinskiy espera utilizar otros conjuntos de datos de la NASA para imaginar la futura acidificación del océano y los cambios en la abundancia de fitoplancton.
«Hemos pasado el punto de mitigación», dice. «Visualizar cómo será el mundo dentro de tres décadas puede ayudarnos a adaptarnos al cambio climático».
Identificar atletas a partir de unos pocos gestos. IA
Unos pocos movimientos en el campo o en la cancha son suficientes para que un modelo de visión por computadora identifique a atletas individuales. Eso es según una investigación preliminar realizada por un equipo dirigido por Katherine Gallagher, investigadora del MIT Quest for Intelligence.
El equipo entrenó a modelos de visión por computadora en grabaciones de video de partidos de tenis y juegos de fútbol y baloncesto y descubrió que los modelos podían reconocer a los jugadores individuales en solo unos pocos cuadros desde puntos clave de su cuerpo, proporcionando un bosquejo de su esqueleto.
El equipo utilizó una API de Google Cloud para procesar los datos de video y comparó el rendimiento de sus modelos con los modelos capacitados en la plataforma de inteligencia artificial de Google Cloud. «Esta información de pose es tan distintiva que nuestros modelos pueden identificar a los jugadores con una precisión casi tan buena como los modelos con mucha más información, como el color del cabello y la ropa», dijo.
Sus resultados son relevantes para la identificación automatizada de jugadores en los sistemas de análisis de deportes, y podrían proporcionar una base para futuras investigaciones sobre inferir la fatiga de los jugadores para anticipar cuándo deberían cambiarse los jugadores. La detección automática de posturas también podría ayudar a los atletas a refinar su técnica al permitirles aislar los movimientos precisos asociados con el manejo experto de un golfista o el swing ganador de un jugador de tenis.
IA
Articulo relacionado: IA Gen – Nova linguagem de programação vai além do aprendizado profundo
Dejar una contestacion