1vob2tsjaxtcy2qhambarbg.jpeg

Procesamiento del lenguaje en humanos y computadoras: Parte 2

Ordenando el zoológico por la mañana

Al igual que los motores de búsqueda, los modelos lingüísticos procesan datos extraídos de la web. Ambos se basan en rastreadores web. Los chatbots son hijos de la Web, no de sistemas expertos.

Un motor de búsqueda es una interfaz de un índice de fuentes ordenado por reputación. Un chatbot es una interfaz de un modelo de lenguaje que se extrapola de las fuentes. Google se construyó sobre la idea crucial de la búsqueda basada en la reputación y las ideas cruciales que permitieron los modelos lingüísticos surgieron de Google. Los métodos de aprendizaje automático utilizados para entrenar chatbots eran un tema de IA relativamente marginal hasta el impulso de Google alrededor de 2010. La edición de 2010 de la monografía de 1100 páginas de Russel-Norvig sobre “Inteligencia artificial: un enfoque moderno” dedicó 10 páginas a las redes neuronales. La edición de 2020 triplicó la extensión de la sección de redes neuronales y duplicó el capítulo de aprendizaje automático.

Cuando les haces una pregunta personal, los chatbots suelen evadirla diciendo «Soy una IA». Pero la pura verdad es que no son hijos de sistemas expertos en IA ni siquiera de expertos en IA. Son hijos de los motores de búsqueda.

Los chatbots son ridiculizados cuando cometen un error al calcular algo como 372 × 273 o al contar palabras en una oración. O elefantes en la habitación. No son tan inteligentes como una calculadora de bolsillo o un niño de 4 años.

Pero la mayoría de los adultos tampoco pueden multiplicar 372 con 273 en su cabeza. Usamos los dedos para contar y lápiz y papel, o una calculadora de bolsillo, para multiplicar. Los utilizamos porque nuestras capacidades del lenguaje natural incluyen sólo operaciones aritméticas rudimentarias, que realizamos mentalmente. Los chatbots simulan nuestros idiomas y heredan nuestras deficiencias. No tienen calculadoras de bolsillo incorporadas. Necesitan dedos para contar. Equipado con una memoria externa, un chatbot puede contar y calcular, como la mayoría de los humanos. Sin memoria externa, tanto los chatbots como los humanos están limitados por la capacidad de su memoria interna, la atención.

Los chatbots alucinan. Este es uno de los principales obstáculos para sus solicitudes de alta seguridad.

El elefante en la habitación es que todos los humanos también alucinamos: cada vez que nos vamos a dormir. Los sueños alinean nuestros recuerdos, asocian algunos de ellos, purgan otros y liberan almacenamiento permitiéndonos recordar lo que sucederá mañana. La falta de sueño provoca degradación mental.

Los chatbots nunca duermen, por eso alucinan en público. Como no los dejamos dormir, no les dotamos de mecanismos de “verificación de la realidad”. Eso requeriría ir más allá de la capacitación previa y realizar pruebas de consistencia continuas.

Cuando la gente habla de una silla, supone que están hablando de lo mismo porque han visto una silla. Un chatbot nunca ha visto una silla ni nada más. Sólo ha visto palabras y archivos binarios extraídos de la web. Si se le alimenta con la imagen de una silla, sigue siendo simplemente otro binario, como la palabra «silla».

Cuando un chatbot dice “silla”, no se refiere a ningún objeto en el mundo. No hay mundo, sólo binarios. Se refieren entre sí. Forman combinaciones significativas, que son probables en el conjunto de entrenamiento. Dado que el conjunto de entrenamiento del chatbot proviene de personas que han visto sillas, las declaraciones del chatbot sobre las sillas hacen referencias similares. Chatbot remezcla declaraciones significativas y las mezclas parecen significativas.

El hecho de que el significado, pensado como una relación entre las palabras y el mundo, pueda mantenerse de manera tan convincente como una relación entre palabras y palabras, y nada más que palabras, es un GRAN elefante en la habitación.

Pero si nuestra impresión de que un chatbot significa silla cuando dice “silla” es innegablemente un engaño, entonces ¿qué razón tenemos para creer que alguien quiere decir lo que dice? Ésa es una pregunta muy complicada.

Los chatbots se entrenan con datos extraídos de la Web. Gran parte está protegida por derechos de autor. Los propietarios de los derechos de autor protestan por el uso no autorizado de sus datos. Los diseñadores y operadores de chatbots intentan filtrar los datos protegidos por derechos de autor o compensar a los propietarios legítimos. Esto último puede ser una oportunidad para compartir ganancias, pero es probable que lo primero resulte ser un elefante rosa volador.

Los problemas de la protección de los derechos de autor de los contenidos electrónicos son más antiguos que los de los chatbots y la Web. La idea original del copyright era que el propietario de una imprenta compraba a los escritores el derecho de copiar y vender sus escritos, a los músicos su música, etc. El negocio editorial se basa en esa idea.

Los bienes sólo pueden ser de propiedad privada si pueden garantizarse. Si un león no puede impedir que el antílope beba agua del otro lado de un pozo de agua, entonces no puede reclamar que el pozo de agua le pertenece. El mercado de contenidos digitales depende de la disponibilidad de métodos para asegurar las transmisiones digitales. El mercado de libros era sólido siempre que los libros fueran sólidos y pudieran asegurarse físicamente. Con la llegada del contenido electrónico, los controles de derechos de autor se hicieron más estrictos. Cuanto más fácil sea copiar el contenido protegido por derechos de autor, más difícil será asegurarlo y proteger los derechos de autor.

La idea de la World Wide Web, como servicio público mundial para difundir contenidos digitales, fue un duro golpe para la idea de propiedad privada de las creaciones digitales. Los esfuerzos de las partes interesadas por defender el mercado de contenidos digitales han llevado a Gestión de derechos digitales (DRM) tecnologías. La idea era proteger el contenido digital mediante criptografía. Pero para reproducir un DVD, el reproductor debe descifrarlo. Siempre que el consumidor consuma el DVD, el contenido deberá ser descifrado. En el camino del disco a la pantalla, se puede piratear. Adiós, DVD. La historia de las protecciones de copia de DVD fue una carrera armamentista entre ofuscaciones a corto plazo y actualizaciones del destripador; y entre las medidas legales de disuasión de los editores y las oportunidades para los piratas. Los editores se alegraron cuando encontraron una manera de retirarse. Los costos marginales de la transmisión web son tan bajos que pueden permitirse el lujo de permitir la copia a los suscriptores y hacer que la piratería sea menos rentable. Pero simplemente dejaron la lata en el camino.

En su mayor parte, los proveedores de búsquedas y redes sociales han estado desempeñando el papel de piratas en esta carrera armamentista, defendiéndose de los creadores mediante términos de servicio y de los editores mediante el reparto de ganancias. Queda por ver hasta qué punto diferirán los roles de los proveedores de chatbot.

A la gente le preocupa que los chatbots puedan hacerles daño. El razonamiento es que los chatbots son superiores a las personas y las personas superiores tienen propensión a dañar a las personas inferiores. Entonces la gente argumenta que deberíamos hacerlo con los chatbots mientras podamos.

Las personas exterminaron muchas especies en el pasado y en el presente, y parecen estar en camino de exterminarse a sí mismas en el futuro al hacer que el ambiente sea inhabitable para sus hijos a cambio de hacerse más ricos hoy. Incluso algunas personas ven esto como irracional. No necesitas un chatbot para ver ese elefante. Pero la codicia es como fumar. Estresante pero adictivo.

Los chatbots no fuman. Están entrenados en datos. Se han proporcionado abundantes datos históricos sobre la irracionalidad de la agresión. Si los chatbots aprenden de los datos, podrían resultar moralmente superiores a las personas.

Los chatbots son extensiones de nuestra mente, al igual que los instrumentos musicales son extensiones de nuestra voz. Los instrumentos musicales están prohibidos en diversas religiones para evitar el desplazamiento de la voz humana por sonidos artificiales. Se están llevando a cabo esfuerzos similares en el ámbito de la mente humana. Algunos estudiosos afirman que la mente humana debería ser protegida de la mente artificial.

En el ámbito de la música, los esfuerzos de represión fracasaron. Usamos instrumentos para tocar sinfonías, jazz, techno. Si no fracasaran, nunca sabríamos que las sinfonías, el jazz y el techno eran posibles.

Los esfuerzos para proteger la mente humana están en curso. La gente tuitea y escribe blogs, se están produciendo artículos en Medium. La mente humana ya es una sinfonía tecno.

Si la inteligencia se define como la capacidad de resolver problemas nunca antes vistos, entonces una corporación es inteligente. Muchas corporaciones son demasiado complejas para ser controladas por un solo gerente humano. Están dirigidos por redes computacionales donde los nodos humanos desempeñan su papel. Pero todos sabemos de primera mano que los nodos humanos ni siquiera controlan sus propios comportamientos de red, y mucho menos la red misma. Sin embargo, una red de gestión corporativa resuelve problemas y optimiza inteligentemente las funciones de sus objetos. Es una entidad artificialmente inteligente.

Si definimos la moralidad como la tarea de optimizar la sostenibilidad social de la vida humana, entonces tanto los chatbots como las corporaciones son moralmente indiferentes, ya que los chatbots están diseñados para optimizar sus transformaciones entre consultas y respuestas, mientras que las corporaciones tienen la tarea de optimizar sus estrategias de ganancias.

Si las IA de los chatbots moralmente indiferentes son dirigidas por IA corporativas moralmente indiferentes, entonces nuestro futuro pende de un equilibrio entre el máximo rendimiento y el resultado final.