Inteligencia Artificial: ¿instrumento de trabajo, ciencia ficción o amenaza?


Organizaron en el CICESE el Primer Coloquio de Aplicaciones de la IA en Ciencia



Ciencias de la información

Para algunos es un instrumento de trabajo, otros lo ven como ciencia ficción, hay quienes lo aprovechan como negocio, y no falta quien lo percibe como una amenaza, al más puro estilo Big Brother. El hecho es que a 50 años de que comenzó su desarrollo, la Inteligencia Artificial y sus componentes (técnicas en redes neuronales, aprendizaje profundo, aprendizaje de máquinas) se han convertido en poderosas herramientas de análisis de datos que pueden aplicarse para solucionar una amplia variedad de problemas.

Se trata de un campo que en los últimos años ha dominado la discusión respecto a otras áreas de investigación; que recibe influencia lo mismo de las matemáticas que de la filosofía; de la psicología y la ciencia cognitiva que de los avances en computación para procesar información masivamente, y cuyo propio término (Inteligencia Artificial), por sugestivo, genera tanto oportunidades como problemas, porque definir cuándo una computadora ha actuado inteligentemente es algo sumamente ambicioso (y problemático).

Estas reflexiones forman parte de la charla que ofreció Jesús Favela Vara, investigador en Ciencias de la Computación del CICESE, en el primer coloquio de Aplicaciones de la Inteligencia Artificial en Ciencia que se organizó el 29 de junio en este centro de investigación.

El coloquio, según informó Carlos Brizuela Rodríguez a nombre del comité organizador, reunió a 60 participantes de las cuatro divisiones académicas del CICESE, así como del Centro de Nanociencias y Nanotecnología y del Instituto de Astronomía de la UNAM, y tuvo como objetivo conocer el trabajo de los investigadores respecto a IA en las diferentes áreas del conocimiento que se cultivan en el campus Ensenada, inicialmente en el CICESE y la UNAM, para eventualmente extenderlo a otras instituciones.

También procuramos, agregó Carlos Brizuela, crear conciencia sobre la importancia y las limitaciones de la IA en el trabajo científico, así como identificar oportunidades de colaboración entre los distintos grupos, de manera que se puedan concretar proyectos con estas sinergias.

El coloquio se realizó de manera presencial y en él se ofrecieron dos charlas informativas, una acerca de la IA en ciencias y otra sobre herramientas disponibles para el aprendizaje de máquinas. Se tuvieron además cinco charlas cortas sobre aplicaciones de IA en diferentes áreas del conocimiento, desde astronomía hasta diseño de fármacos; dos charlas cortas sobre problemas que pueden ser abordados con técnicas de IA, y una sesión con 11 posters, que fueron desde la identificación de biomarcadores en voz para identificar demencia en adultos mayores, aplicaciones en aprendizaje por refuerzo y sobre el reconocimiento de lenguaje de señas, entre otros temas.

Este coloquio se complementará con la realización de un taller sobre fundamentos de la IA en ciencia, el cual se organizará más adelante este año, en otoño, en una fecha que oportunamente dará a conocer el comité organizador. Por cierto, éste estuvo conformado por los doctores Aldo Moreno Ulloa, del Departamento de Innovación Biomédica del CICESE; Jonathan Guerrero Sánchez, del Departamento de Modelación de Nuevos Materiales del CNyN; Miguel Ángel Alonso Arévalo, del Departamento de Electrónica y Telecomunicaciones, así como Jesús Favela Vara, Hussein López Nava, César García Jacas y Carlos Brizuela Rodríguez, del Departamento de Ciencias de la Computación del CICESE.

La primera charla informativa (“Desmitificando la IA: Aprendizaje de máquina como herramienta de investigación científica”) estuvo a cargo de Jesús Favela. En ella aseguró que este campo tiene más de 50 años de estarse desarrollando, pero que ha sido recientemente que se han presentado avances muy importantes, con un aumento considerable en el número de publicaciones en revistas científicas, especialmente en el área de aprendizaje de máquina; tanto, que domina la discusión en muchas de las áreas de investigación.

Consideró que la IA se divide en dos dimensiones: una se refiere a pensar o actuar, y la otra a hacerlo como seres humanos o racionalmente. Así, se tiene una matriz con cuatro variables: sistemas que piensan como humanos o que actúan como humanos, y sistemas que piensan racionalmente o sistemas que actúan racionalmente.

Por años se pensó que la inteligencia, y por extensión, la IA, estaba enfocada a la parte racional, “pero ahora sabemos que en muchas ocasiones no pensamos racionalmente. Hoy por ejemplo se habla de la inteligencia emocional”.

Jesús Favela presentó la definición que planteó Tom Michell (Carnegie Mellon University) en 1997 respecto al aprendizaje de máquina (del algoritmo capaz de aprender a partir de datos): Se dice de “un programa de cómputo que aprende de experiencia E con respecto a una clase de tareas T y una medida de desempeño D, si su desempeño en la tarea T, medida por D, mejora con la experiencia E”.

Éste, junto con otros algoritmos base de la IA fueron propuestos hace décadas; además, a mediados de los años 2000 la IA no era considerada muy atractiva (de hecho, algunos consideran que estaba en su tercer invierno). Entonces, ¿por qué tanto interés hoy en día?

Lo resumió así: primero, por la disponibilidad que se tiene de grandes bases de datos (ImageNet, Wikipedia); luego, por los avances que se tienen en hardware, principalmente en procesadores gráficos; los avances en reutilización de información (cómputo en la nube, los estándares tipo API o los modelos de negocio), y por el desarrollo de herramientas y modelos pre entrenados.

Así, los de aprendizaje profundo son los modelos dominantes hoy en día, en aprendizaje de máquina e IA. En su mayoría se basan en modelos multicapa, cuya fuerte limitación para su aplicación es el tiempo de entrenamiento que requieren este tipo de redes. “Pero los procesadores gráficos (GPUs) desarrollados por Nvidia empezaron a ser usados para entrenar estos modelos en 2009, haciendo factible su uso generalizado”, comentó el investigador.

Ejemplificó con el caso del ImageNet Challenge, un desafío de reconocimiento visual que puede considerarse como fundamental en el avance de la visión por computadora y la investigación de aprendizaje profundo.

ImageNet es una base de datos de imágenes organizada jerárquicamente (según WordNet), en la que cada nodo de la jerarquía está representado por cientos y miles de imágenes etiquetadas.

En 2010, los algoritmos de detección de objetos y clasificación de imágenes a gran escala tenían un margen de error de 28%, utilizando algoritmos que todavía eran de aprendizaje superficial. Dos años después, en 2012, ya con algoritmos de aprendizaje profundo, este porcentaje bajó a 16%. Conforme se continuaron utilizando modelos de redes profundas, este porcentaje continúo bajando año con año. En 2015 el margen de error (3.6%) ya era menor al típico de un ser humano, y en 2017 era apenas de 2.25%.

A manera de conclusiones, Jesús Favela considera que el aprendizaje de máquina se ha convertido en una herramienta muy poderosa de análisis de datos que puede ser aplicada a una amplia variedad de problemas; que las herramientas que existen son versátiles y fáciles de usar, y que están surgiendo nuevos tipos de redes neuronales y modelos pre programados.

Siendo así, ¿qué se requiere para trabajar con IA en la actualidad? Dos cosas, aseguró: Buenas preguntas de investigación, y datos, muchos datos.

Información relacionada:

IA@CICESE: iniciativa para ampliar la cooperación en inteligencia artificial en este centro

Palabras clave: Inteligencia artificial, IA, coloquio, aprendizaje profundo, aprendizaje de máquinas

anterior