ARGENTINA
CAPITAL FEDERAL
HOY-ES
OtrosBlogs -
MisPapers -
MisNotas -
Vínculos -

miércoles, julio 19, 2023

chatGPT Again

El campo de aplicación de la Inteligencia Artificial (AI) es amplísimo. Abarca todas las actividades humanas porque permite resolver rápida y eficientemente innumerables problemas del hacer cotidiano. Siempre un gran descubrimiento o invento trae muchos beneficios para la humanidad; la vida social cambia abruptamente. La historia está plagada de ejemplos entre los cuales la rueda, el motor, la electricidad, la energía nuclear, la mecánica cuántica, internet, blockchain son los más sobresalientes. Ahora es el turno de la Inteligencia Artificial. Muchos ignoran los beneficios y se enfocan en los peligros. Se dice que chatGPT, la Inteligencia Artificial más difundida, es una amenaza para la cultura y la civilización establecida. ¿Son reales estas amenazas?

¿Qué es chatGPT? Es un modelo de lenguaje por medio del cual un autómata genera texto de manera predictiva. Dada una secuencia de texto inicial, el autómata de chatGPT intenta invariablemente predecir la próxima palabra del texto en base a los datos que dispone en su memoria sobre ese texto de referencia. Recurriendo a su memoria, el autómata hace una búsqueda exhaustiva de la próxima palabra y, siguiendo una regla probabilística preestablecida en su programa, elige esa próxima palabra. Una vez hecha esta elección, su texto de referencia cambia, porque tiene una palabra añadida. Ese nuevo texto es el texto de referencia para buscar la nueva próxima palabra. El autómata repite este mismo procedimiento tantas veces hasta lograr escribir un ensayo de longitud tal, al cual ya casi no existan palabras probables para agregar.

La regla que determina la conducta del autómata se puede simplificar con la siguiente expresión:

TEXTO(n)=TEXTO(n-1)+PALABRA(n), n=1,2,3,...
Sabiendo que
TEXTO(n) es el texto en el paso n
TEXTO(0) es el texto inicial, por lo cual PALABRA(0)=""
PALABRA(n)=ALEATORIAponderada(PALABRAPOSIBLE(TEXTO(n-1))) tal que a la palabra posible menos probable se le asigna (eurísticamente) un peso de 0.8 y al resto de las palabras posibles un peso de 0.2

La expresión general de la regla queda:

TEXTO(n)=TEXTO(n-1)+ALEATORIAponderada(PALABRAPOSIBLE(TEXTO(n-1))), n=1,2,3,…

Al observar con cuidado, uno descubre que esta regla es bastante simple comparada con la tarea de escribir un ensayo que ha de ser tan complejo como, nada más ni nada menos, uno escrito por humanos que acceden a leer los mismos contenidos almacenados en la memoria del autómata. Un aspecto muy relevante a destacar es que la regla de probabilidad preestablecida que chatGPT emplea para computar la probabilidad de la próxima palabra está formulada en un enorme modelo de lenguaje probabilístico llamado LLM (large languaje model), que tiene 175 mil millones de parámetros y que forma el núcleo principal del autómata. En esta nota no se trata de explicar la estructura y los fundamentos del modelo LLM, sino las supuestas amenazas asociadas con chatGPT.

Si se asignara exactamente la misma tarea al autómata y al humano, ambos completarían el ensayo de manera muy distinta, porque sus reglas de conducta son distintas. El humano puede improvisar su escritura, el autómata no. El humano puede imaginar palabras, el autómata no. El humano puede inventar palabras, el autómata no. El humano es consciente de las palabras que elige más allá de si están o no en ensayos previos, el autómata no. El humano tiene naturalizado su lenguaje, el autómata no. El humano escribe en base a ideas, el autómata no. El humano emplea lógica y deduce, el autómata no. El humano asigna significado a las palabras, el autómata no. El humano nunca elige la próxima palabra en base a probabilidades, el autómata siempre. Y así se podría seguir enumerando diferencias. Diferencias que hacen sospechar que los ensayos podrían ser distintos y coherentes a la vez.

Suponiendo que ambos ensayos, aunque distintos, son coherentes, el autómata podría ser mucho más eficiente que el humano a la hora de elaborarlo. El autómata podría responder las preguntas, y de hecho lo hace, mucho más rápido que el humano y así permitir la inmediata resolución de problemas urgentes. Esto, lejos de perjudicar podría beneficiar a los humanos liberando tiempo para ejecutar otras tareas prioritarias y más complejas a la mera búsqueda de respuestas sobre aspectos ya conocidos.

Sabiendo que el humano le asigna significado a las palabras y que cualquier idea o concepto o teoría elaborada por la razón se puede traducir al lenguaje coloquial, el humano puede generar nuevos conocimientos y escribirlos coherentemente aún sin leer ningún informe previo sobre el tema, cosa que el autómata nunca logrará sintetizar eficientemente desde escritos almacenados en su memoria, aún suponiendo que tiene acceso a todos los conocimientos obtenidos por la humanidad y que el modelo LLM predice probabilidades a la perfección. Lo nuevo, lo que no está escrito en ningún lado, pero que el humano puede escribir a priori, podría nunca ser escrito predictivamente por el autómata.

Por la incorporación del modelo LLM, no es en rigor descartable que el autómata de chatGPT obtenga un ensayo novedoso, que dé cuenta de algo nuevo obtenido combinando palabras aleatoriamente. Pero la probabilidad de que esto suceda es literalmente cero. Suponiendo que lo logra, quien estará últimamente en condiciones de decidir si tal descubrimiento es o no significativo, ese no podrá ser el autómata sino el ser humano, porque éste es el único que puede asignar significado a las palabras y descubrir si una cierta combinación, improbable, de ellas tiene o no algún sentido.

El autómata carece de las facultades fundamentales de la mente humana. Para dotar al autómata de dichas facultadas se requiere primero sintetizar las reglas que las determinan. Esas reglas son desconocidas para el humano y no están escritas en ningún lado. Ningún autómata puede acceder a ellas como para mostrárselas a un humano, por lo que ningún autómata puede ser programado con ellas. Por eso el autómata nunca podrá valorar y decidir por motus propio, en el modo en que el humano lo hace.

Ni la vida ni la cultura humana están amenazadas por chatGPT. Esta tecnología no representa ninguna amenaza para la civilización. Claro que personas malintencionadas podrán emplear esta nueva y prometedora tecnología para hacer daño y cometer actos criminales, pero esto es lo que el humano puede hacer con cualquier instrumento que emplea a diario. Los humanos pueden usar, y de hecho usan, automóviles para cometer delitos, pero el automóvil no representa una amenaza para la civilización. Los humanos no son tontos, no buscan moverse de un lado a otro en automóvil para de ese modo auto aniquilarse atropellándose unos a otros. Es de esperar que las aplicaciones beneficiosas de chatGPT superen abrumadoramente a los usos delictivos.

La única amenaza de chatGPT es para aquellos intereses establecidos en una sociedad plagada de privilegios y atropellos. Claro que chatGPT tiene el potencial de estropear negocios protegidos por intereses de gobernantes corruptos, de industriales ineficientes, de sindicalistas mafiosos o de burócratas perezosos. Ellos sí serán perjudicados. Pero este supuesto perjuicio es, en rigor de verdad, un enorme beneficio para la sociedad que podrá librarse de aquellos privilegiados y atropelladores que sí retrasan y destruyen civilizaciones enteras.

No hay comentarios: