Entrevistados por La Mañana, el profesor Hugo Leonardo Rufiner y el filósofo Mariano Asla reflexionaron sobre la flamante irrupción de la inteligencia artificial, precisaron conceptos y analizaron connotaciones y peligros escondidos en el seno de los propios términos que utilizamos para definir esta tecnología.
En el último año se ha hablado mucho en los medios sobre ChatGPT, un modelo de lenguaje natural desarrollado por OpenAI. Este se creó mediante el entrenamiento de una red neuronal de gran escala llamada Generative Pretrained Transformer 3 (GPT-3) que utiliza técnicas avanzadas de aprendizaje automático para generar respuestas coherentes y útiles a preguntas y comentarios de los usuarios. Antes de GPT-3, OpenAI ya había lanzado modelos previos, como GPT-1 y GPT-2, pero GPT-3 fue un gran avance en términos de tamaño y capacidad, ya que cuenta con 175 mil millones de parámetros, lo que lo convierte en uno de los modelos más grandes de su tipo.
A fines del año pasado ChatGPT se lanzó de forma gratuita al público, con intenciones de monetizarlo más adelante. El pasado 4 de diciembre, OpenAI calculaba que ChatGPT ya tenía más de un millón de usuarios (y este es solo uno de los sistemas de IA que se encuentran disponibles.) El 14 de marzo la propuesta ya fue superada por GPT-4, una nueva versión con “habilidades de razonamiento más avanzadas”, capaz de procesar imágenes y con acceso a la red, lo que le permite citar información actualizada al minuto.
La irrupción masiva de estos sistemas y su accesibilidad despierta un sinnúmero de cuestiones, desde la incertidumbre sobre el futuro de algunas profesiones, el abordaje de la educación, hasta la naturaleza ontológica de estos sistemas y nuestro vínculo con ellas. Hasta hace muy poco, estas tecnologías habitaban en el ámbito de la ciencia ficción, donde por un lado se vislumbraban desenlaces desastrosos, y por otro sugerían la potencialidad de ser una valiosa herramienta.
Hace algunas semanas, el intrépido magnate Elon Musk y cientos de expertos mundiales firmaron una petición en el sitio futureoflife.org, pidiendo una moratoria de seis meses en la investigación sobre inteligencias artificiales más potentes que GPT-4, hasta que se establezcan sistemas de seguridad y nuevas autoridades reguladoras. También solicitaron la vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la “dramática perturbación económica y política que causará la IA”. Los firmantes expresan temores sobre una IA incontrolable que supere a los humanos y piden que estas decisiones no sean delegadas en líderes tecnológicos no electos.
Que uno de los vanguardistas de la tecnología más poderosos de nuestro tiempo pida una pausa, y que se reflexione y regule antes de continuar con en el avance de esta tecnología es al menos curioso, pero antes de llegar a los peligros, sean fundados o no, rebobinemos hasta las definiciones.
Qué es y qué no es ChatGPT
El profesor Leonardo Rufiner, director del Instituto de Investigación en Señales, Sistemas e Inteligencia Computacional (sinc(i)), de la Universidad Nacional del Litoral, (Argentina) e Investigador del Consejo Nacional de Investigaciones Científicas y Técnicas, (CONICET), un centro que trabaja con el procesamiento de señales e inteligencia artificial, explicó en diálogo con La Mañana que desde el punto de vista técnico, ChatGPT es un algoritmo, un programa de computadora donde “metes” una entrada y “te devuelve” una salida. Rufiner advirtió que “aquí no hay nada parecido a ningún tipo de consciencia, por más de que presenta apariencia de pensamiento”. Para el profesor si bien el chat pareciera razonar de forma humana, esto es solo un “truco” que está muy bien hecho.
El filósofo argentino, Mariano Asla, últimamente dedicado a temas relacionados con la modificación de la naturaleza humana y el transhumanismo, precisó a La Mañana que “cuando se habla inteligencia artificial, se tiene una noción de inteligencia demasiado genérica, simplemente como una capacidad de resolver trabajos o procesar información”. Asla advirtió que la simple capacidad de procesar información no es suficiente para hablar de inteligencia.
Además, señaló que el término información también se presta a la confusión, porque “la información siempre es un dato o algo dado para alguien que lo entiende, interpreta y le otorga un significado, y para quien es favorable o desfavorable en cierto sentido. La máquina no entiende lo que está procesando, no entiende que no entiende, no es autoconsciente del proceso, y mucho menos se ve beneficiada o no a partir de esto. Entonces son realidades sumamente distintas.”
Parte del truco parece estar entonces escondido en la semiótica, en los significados y en las analogías que estamos usando para definir esta realidad nueva. Para el filósofo ocurre además que nos vemos traicionados por el antropomorfismo. Explicó que cada vez que un ser humano conoce una realidad no humana, sea animal, espiritual o inanimada, tiende a proyectar en ésta condiciones y rasgos humanos. “Es inevitable el antropomorfismo, porque conocemos según del modo en que somos, pero tenemos que saber que esa condición de posibilidades se transforma en riesgo.” Dijo el académico.
Otro término que se utiliza para hablar de la IA es aprender. Rufiner precisó que cuando decimos que el algoritmo aprende, no lo hace como los seres humanos. En ese sentido dijo, “estamos usando los antropomorfismos por todos lados, por eso es fácil creerse el truco, porque todo nos lleva a pensarlo como si fuéramos nosotros, pero en la máquina. Es necesario sacar toda esa capa de terminología que nos puede confundir, para ver realmente cómo funcionan las cosas.” Advirtió el experto en IA y agregó, “de hecho, son todas máquinas de Turing. Desde un punto de vista teórico, son máquinas que permiten ‘correr’ secuencias de instrucciones. Ahora es incluso un poco más complejo porque además de la instrucción, puede, a partir de información que recoge por sí misma, elaborar reglas y comportamiento. Pero no deja de ser una máquina de Turing. Es un concepto más de computabilidad teórica”, explicó.
El filósofo sostuvo que tendríamos que pensar en términos nuevos, ya que, según entiende, “los que usamos producen equívocos y entonces dejan de ser claros”. De lo contrario propuso hacer aclaraciones, por ejemplo, especificando la forma en que el término debe ser entendido. “Me parece que cuando se suscitan realidades nuevas, hay que entenderlas. Para entenderlas usamos conceptos y los conceptos se expresan por medio de palabras, por lo que va a haber que generar lenguaje nuevo”, manifestó.
¿Es posible producir verdadera inteligencia o conciencia artificial?
Mariano Asla identificó distintos tipos de imposibilidad. “Una puede ser ontológica, cuando algo no puede ser hecho, sencillamente porque no puede ser, como un círculo cuadrado. No hay máquina que lo pueda hacer porque es contradictorio en los términos”, dijo. “Luego habría una imposibilidad nomológica, que sería algo contrario a las leyes del universo como se nos muestra, (como disolver el oro en agua o viajar más rápido que la velocidad de la luz), son, según nuestros paradigmas científicos, imposibles de acuerdo con lo que la ciencia nos muestra. Uno puede decir, ‘bueno, la inteligencia artificial no es un círculo cuadrado, no es contradictorio en los términos’, ahora, ¿qué nos dice la naturaleza? La única inteligencia que conocemos no tiene nada que ver con la artificial, es parte de un ser viviente que no solo vive, sino que además siente (que la máquina no puede) y que al mismo tiempo también es sociable. La inteligencia llegó progresivamente: vida, sensibilidad, sociabilidad y luego conciencia e inteligencia”. Asla se pregunta si podemos lograr inteligencia en un sustrato distinto.
Para el filósofo hay quienes se paran frente a esa pregunta con optimismo y creen que se va a lograr y hay otros que dicen que no se va a lograr nunca por definición. ¿Cómo salvan esta cuestión los más optimistas?: apelando a la emergencia de inteligencia. Asla explica: “Ellos dicen que máquinas funcionando con ingentes cantidades de información y dialogando entre sí a lo largo del tiempo van a provocar que emerja una potencia tal como es la inteligencia”. Para él esta postura es “un salto de fe”.
Rufiner, por su parte, explicó que en la inteligencia artificial hay dos escuelas, la de la IA débil y la fuerte. “La IA débil está demostrada porque configura la emulación de algún aspecto de la inteligencia humana, que es lo que tenemos hoy. La otra rama, la de la IA fuerte, es la que propugna que realmente vamos a llegar a lograr máquinas que sean inteligentes con inteligencia artificial, pero equivalente o incluso superior a la humana en todos sus aspectos. La IA fuerte es por ahora una hipótesis de discusión filosófica”, elucidó el investigador.
H. Leonardo Rufiner es un destacado académico y profesor de Informática argentino actualmente director del Instituto de Investigación en Señales, Sistemas e Inteligencia Computacional (SINC), dependiente de la Universidad Nacional del Litoral, (Argentina), y del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET) de Argentina, un instituto dedicado al procesamiento de señales, la robótica y la inteligencia artificial. Rufiner obtuvo su doctorado en Ingeniería de la Universidad de Buenos Aires en 2006 y ha trabajado en varias universidades e institutos de investigación a nivel nacional e internacional. Es conocido por sus contribuciones en el campo del procesamiento inteligente de bioseñales con aplicaciones en diversas áreas como la medicina, la epidemiología, la ganadería de precisión y las interfaces humano-computadora. Ha escrito más de 70 artículos en revistas científicas especializadas, seis capítulos de libro y dos libros.
Mariano Asla es un filósofo argentino especializado en la filosofía de la medicina y psicología moral. Es profesor asociado de la Facultad de Ciencias Biomédicas de la Universidad Austral y director de proyectos de investigación en el Instituto de Filosofía de la misma institución. Sus publicaciones y contribuciones giran en torno a estos temas.”
TE PUEDE INTERESAR: