Geoffrey Hinton, a menudo llamado el Padrino de AIno sonan alarmas sobre los robots asesinos en estos días. En cambio, se está inclinando más cerca del micrófono y diciendo: El riesgo real es la IA que nos supera emocionalmente.
Su preocupación? Esa persuasión generada por la ametralladora pronto puede lograr más influencia sobre nuestros corazones y mentes de lo que alguna vez sospechamos.
Algo sobre eso se siente como un mal giro de la trama en tu ciencia ficción favorita: piense en el sabotaje emocional, no la destrucción física. Y sí, eso se mete contigo más que los bots láser, ¿verdad?
El punto de Hinton es que los modelos modernos de IA, esos motores de lenguaje suave de tala suave, no solo escupen palabras. Están absorbiendo técnicas de manipulación en virtud de ser entrenados en escritura humana plagada de persuasión emocional.
En muchos sentidos, estos sistemas han estado aprendiendo subconscientemente a empujarnos desde que aprendieron por primera vez a predecir “lo que viene después”.
Entonces, ¿cuál es la comida para llevar aquí, incluso si no estás tramando una inmersión profunda en la ética de IA? Primero, ya es hora de verificar no solo lo que AI puede escribir, sino también cómo escribe. ¿Están los mensajes diseñados para tirar de su intestino?
¿Están diseñados, elaborados y astutamente persuasivos? Nos desafiaría a todos a comenzar a leer con un poco de escepticismo saludable, y tal vez enseñe a la gente una o dos cosas sobre reconocer el giro emocional. La alfabetización mediática no solo es importante, es urgente.
Hinton También insta a una dosis de transparencia y regulación alrededor de este poder emocional silencioso. Eso significa etiquetar el contenido generado por la IA, crear estándares para la intención emocional y, obtener esto, actualizar posiblemente programas de educación para que todos aprendamos a descifrar la persuasión hecha de AI tan pronto como, por ejemplo, la escuela secundaria.
Esto no es solo la teoría teórica; Se relaciona con cambios culturales más grandes. Las conversaciones alrededor de la IA están cada vez más envueltas en matices religiosos o apocalípticos, algo más allá de nuestra comprensión, algo impresionante y aterrador.
Las recientes advertencias de Hinton hacen eco de esas ansiedades más profundas: que nuestra imaginación cultural todavía está alcanzando lo que la IA realmente puede hacer, y cuán sutilmente podría estar haciendo.
Permítanme dar un paso atrás y decir, mira: nadie quiere vivir en un mundo donde la voz más persuasiva sea un motor digital en lugar de un amigo, un padre o un vecino. Pero nos dirigimos de esa manera, rápido.
Entonces, si no comenzamos a hacer preguntas difíciles, sobre el contenido, la persuasión y la ética), estaremos en un territorio peligroso sin siquiera darnos cuenta.
Una verificación rápida de la realidad, porque soy como tú, escéptico cuando parece demasiado dramático:
- Si AI puede girar contenido emocionalmente poderoso, ¿qué le impide reforzar la manipulación del consumidor o las cámaras de eco políticas?
- ¿Quién va a responsabilizar a los desarrolladores de IA por el mal uso emocional? ¿Reguladores? Plataformas? Usuarios?
- ¿Y cómo nos enseñamos a no ser manipulados, sin sonar paranoicos?
Esto no es una descripción de la fatalidad, solo un empujón amistoso para mantenerte atento. Y oye, tal vez también sea un llamado a la acción: si eres maestro, escritor o simplemente alguien que envía mensajes a tus amigos, vuelve a hacer que la conciencia emocional sea genial.
Entonces sí, no hay robots asesinos (todavía no, de todos modos). Pero la invasión tranquila ya está comenzando en nuestras bandejas de entrada, alimentos sociales y anuncios. Mantengamos nuestra guardia en alto, y tal vez, susurro cuando la IA intente susurrar primero.