La Inteligencia Artificial cobró recientemente un gran protagonismo en la opinión pública, primero a partir del lanzamiento del modelo de lenguaje más avanzado hasta el momento, Chat GPT-4, de la empresa OpenAI, y luego a raíz del pronunciamiento mundial de un grupo de científicos, investigadores y empresarios del campo, quienes advirtieron sobre los riesgos de continuar la carrera de desarrollo de IA sin ningún tipo de regulación y reclamaron un acuerdo de las principales compañías para suspender por un tiempo (quizás demasiado breve) el avance de estas tecnologías.
Diego Evin, bioingeniero por la Facultad de Ingeniería de la Universidad Nacional de Entre Ríos y doctor en Ciencias de la Computación de la Universidad de Buenos Aires, trabaja hace 20 años en la enseñanza y la investigación de esta tecnología en la cátedra de Inteligencia Artificial de la carrera de Bioigeniería de la UNER y el Laboratorio de Sistemas de Información, entre otros espacios. Además, es investigador del Conicet en el Centro de Información y Transferencia en Acústica de la UTN Regional Córdoba.
En esta entrevista, el especialista se refirió al inmediato debate de coyuntura que disparó la carta promovida desde Future of Life (en los que consideró sus aciertos y también en sus aspectos controversiales) y explicó -desde nociones básicas de IA hacia sus aspectos más complejos y hasta inciertos- los riesgos que supone concretamente una evolución de estas tecnologías sin un control público o, como mínimo, independiente. Asimismo, analizó enormes beneficios y posibilidades que otorga la IA en campos como la salud, muchas de las cuales están actualmente en investigación y desarrollo en la Facultad de Ingeniería de Entre Ríos.
– ¿Qué es la Inteligencia Artificial?
– Es un área de las Ciencias de la Computación que busca desarrollar sistemas capaces de realizar tareas que típicamente necesiten inteligencia humana, como entender lenguaje natural, interpretar imágenes, tomar decisiones o planificar. Una de sus características es que pueden mejorar a partir de la experiencia. Hay algoritmos que se entrenan a medida que se usan: son Aprendizajes por Refuerzo. De acuerdo a si hace la tarea bien o mal, modifican sus estados internos, que es lo que modela el algoritmo.
– ¿Qué es un algoritmo?
– Un algoritmo es una serie de pasos y definiciones de un proceso para resolver un problema computacional. Por ejemplo, hay uno para encontrar la integrada o la derivada de una función, o para encontrar un camino de un lugar a otro que te recomienda Google. Para problemas que tienen solución conocida se le dice a la computadora la serie de pasos que tiene que seguir. Los de Inteligencia Artificial son un grupo particular de algoritmos. Se aplican cuando no hay uno tradicional para resolver un problema. En esas situaciones dejamos que la maquinaria inteligente aprenda. No le explicamos nosotros cómo tiene que resolver el problema, sino se encarga, a partir de muestras de datos, de aprender sola a resolver un problema. Eso se denomina Aprendizaje Automático, Maquinal o Machine Learning.
– ¿Qué tipo de aplicaciones de IA hay en Salud o Biología?
– Existen muchas aplicaciones. Por ejemplo, en el Laboratorio de Sistemas de Información (de la FIUNER) se trabaja un proyecto para identificar retinopatía en bebés prematuros, una patología que puede llevar a la ceguera. El Laboratorio de Ingeniería en Rehabilitación e Investigaciones Neuromusculares (LIRINS-FIUNER) está trabajando en interfaces cerebro-computadora basados en IA. En la Facultad hay proyectos de detección de apnea de sueño, de patologías en la voz a partir de análisis de registros del habla y de reconocimiento automático del habla. En Bioinformática se trata de predecir cómo se van a integrar secuencias de aminoácidos para formar proteínas, o en la búsqueda y caracterización de nuevas moléculas para utilizar como medicamentos. En agronomía se aplica desde la predicción del clima con imágenes de satélites hasta la cantidad de fertilizantes que se necesitan en campos. En Biomecánica se aplican las mismas técnicas para segmentación de músculos, por ejemplo en imágenes de tomografía facial computada. En historias clínicas electrónicas se trata de perfilar pacientes similares entre sí. Se usan aplicaciones de Big Data en grandes bases de datos de pacientes para determinar si un tratamiento que resultó bien en un individuo puede aplicarse en otro..
– Podemos suponer que desarrollos que fueron revolucionarios hace unos años ya están incorporados como algo común en la actualidad.
– Las investigaciones de IA empezaron en 1950. A comienzos del siglo 21, fue revolucionaria la cantidad de datos para enseñarle a los algoritmos. Algunos factores que lo permitieron fueron el crecimiento de Internet y que cada uno pueda registrar sus datos y compartirlos con otros proyectos de Europa o Estados Unidos. Así se generan grandes bases de datos de imágenes médicas de libre uso. El segundo elemento vital fue el aumento de la capacidad computacional. Hace 20 años teníamos que dejar una máquina corriendo dos o tres semanas para entrenar estas redes neuronales. Hoy se pueden entrenar en un par de horas. Fue un avance la evolución del hardware de cómputo y el uso de placas de video, que originalmente se usaban como aceleradores en videojuegos realistas. Se aceleró muchísimo la velocidad de procesamiento de estos sistemas. La tercera clave fue la aparición de nuevos algoritmos. Hace 20 años enseñábamos que una red neuronal con dos capas podía resolver cualquier tipo de problema. Esto fue revolucionado con el Deep Learning o Aprendizaje Profundo. Demostró que si íbamos aumentando la profundidad de las capas, como se observan en el ser humano, la capacidad de desempeño de estos algoritmos era muchísimo mejor. Resuelven mejor sobre los ejemplos que no vieron en el entrenamiento. La evolución dio un nuevo salto luego con los algoritmos llamados Transformers.
– ¿Qué son?
– Son una evolución de las redes neuronales recurrentes. Tienen la capacidad de recordar cosas que están lejos de otras. No recuerdan todo. Ponen una máscara de atención y diferencian lo que es importante de recordar de lo que no. Se puede ampliar mucho el contexto de información vinculada a una palabra o un estado. Con esto funcionan los modelos de lenguaje. Son algoritmos que buscan predecir la palabra más probable que pueda seguir en una secuencia conocida.
– ¿Los avances serían detenidos si se cumple el pedido de la Carta que firmaron científicos y empresarios alertando sobre los riesgos de la IA?
– Esa carta surgió desde el Instituto Future of Life, que se creó en 2015, el mismo año que se fundó la empresa OpenAI, que popularizó el Chat GPT. El objetivo del instituto, conformado por gente muy reconocida en ámbitos académicos, filosóficos y empresarios, es advertir que el desarrollo tecnológico no lleve a la extinción de la vida, a un futuro en que las máquinas puedan sobrepasar la capacidad de inteligencia del ser humano y revelarse en contra de sus creadores. Sería lo que veíamos como ciencia ficción tiempo atrás, como el ejemplo de Terminator: llegar a un punto en que los sistemas de IA empiecen a tomar decisiones por sí mismos. No es un chiste ni trivial lo que se está planteando. Es una hipótesis posible.
– ¿Qué riesgos puntuales señala esa comunidad?
– Uno es la información falsa y fake news. Estos sistemas ya tienen capacidad de crear imágenes falsas, como las conocidas del Papa Francisco con campera. Otro es automatizar todos los trabajos. Hay estimaciones dentro del campo que indican que para el año 2059 estos sistemas van a ser capaces de hacer cualquier tipo de trabajo que hace el ser humano. Por otro lado, el riesgo de perder el control de la civilización y que empiece a ser controlada por las máquinas. Por ejemplo, que los algoritmos se comuniquen con una fábrica de robots y ordenen construirlos. Son riesgos reales. Open AI está desarrollando formas de que estos sistemas puedan comunicarse con otros programas. Podrían acceder a nuestra información personal en redes sociales o incluso bancaria. La propia empresa publicó un paper que analiza, a partir de Chat GPT, cuáles son las potenciales ramas de trabajo que van a estar más amenazadas a partir de esta tecnología. Y hay un 80 por ciento de actividades que podrían tener parte de sus tareas reemplazadas. Antes se creía que los estudios que requieren mayor tiempo de formación intelectual serían los más difíciles de reemplazar. Esto demuestra que son los más susceptibles. Porque estos sistemas pueden utilizar varias fuentes de información al mismo tiempo, de manera más rápida y eficiente. Los cambios que trajo Internet fueron bastante paulatinos. Esto va a ser mucho más abrupto.
– ¿Sirve de algo detener el desarrollo de Inteligencia Artificial durante seis meses, como propone la Carta?
– Ese planteo no es ingenuo. Saben que en seis meses no se va a frenar nada. Lo que se pide es pausar el desarrollo de todos los sistemas que tengan una potencia superior a GPT-4. Nadie sabe, salvo la gente de OpenAI, cómo funciona internamente y cuál es su verdadero potencial, ya que las pruebas se están haciendo ahora. La carta está apuntada contra esta sola empresa. Con buena fe, asumo que con esto se quiere dar visibilidad al tema y promover leyes o normas que regulen un poco hacia dónde va el desarrollo. Otras interpretaciones indican que buscan ganar tiempo para otras empresas. Hay en curso una carrera geopolítica. Las potencias están destinando muchos fondos al área. China tiene un plan para ser líder en IA para 2030, pero Estados Unidos no quiere perder esa posición.
– ¿Siempre hay un humano detrás de las máquinas?
– Uno de los ejes en el ámbito de la gobernanza de esta tecnología es el alignment (alineamiento) de la IA. Se trata de generar mecanismos que eviten que las computadoras se salgan del control humano, hagan cosas que el humano no previó o que valoren las consecuencias de sus acciones antes de emprenderlas. Es un tema muy actual que está en discusión. Hay opiniones que dicen que es imposible con el conocimiento que tenemos ahora. Hay gente que propone acuerdos de gobernanza y de transparentar los algoritmos para saber qué datos utilizan y cómo. También se habla de auditorías: por ejemplo, que otra empresa pueda valorar externamente qué efectos o consecuencias puede tener la tecnología antes de que salga al mercado. Es decir, una autoregulación de las mismas compañías, dado que los gobiernos y las leyes siempre van muy detrás de los avances tecnológicos.
– ¿Cuál es tu posición ante el debate?
– En resumen, pienso que los seis meses no van a lograr nada y están dirigiéndose a una sola empresa, OpenAI. Sí veo necesario plantear la gobernanza, las fake news y la automatización de trabajos. La IA trae beneficios. Por ejemplo, es revolucionario el desarrollo de algoritmos que permiten detectar nuevas moléculas que se puedan usar como medicamentos y así tratar enfermedades. Pero también se pueden utilizar para alterar genéticamente organismos, lo que implica abrir una caja de Pandora. Es una cuchilla de doble filo. Además, hubo otra carta menos difundida, del Encuentro Latinoamericano sobre Inteligencia Artificial – Khipu 2023, que introdujo una perspectiva latinoamericana. Refiere a la necesidad de democratización de la IA y de tomar recaudos sobre los sesgos de estos programas, porque muchas veces están basados en datos enfocados en el mercado y la sociedad norteamericanos y europeos.
Fuente: http://ingenieria.uner.edu.ar/boletin/index.php/noticias/1009-es-una-hipotesis-posible-que-los-sistemas-de-inteligencia-artificial-empiecen-a-tomar-decisiones-por-si-mismos