La inteligencia artificial se está acercando gradualmente a la nuestra. Los algoritmos de inteligencia artificial ahora pueden vencernos constantemente en el ajedrez, el póquer y los videojuegos multijugador, generar imágenes de rostros humanos indistinguibles de los reales, escribir artículos de noticias (¡no este!) E incluso historias de amor, y conducir autos mejor que la mayoría de los adolescentes.
Pero la IA no es perfecta, todavía, si Woebot es un indicador. Woebot, como escribió Karen Brown esta semana en Science Times, es una aplicación de teléfono inteligente impulsada por inteligencia artificial que tiene como objetivo brindar asesoramiento de bajo costo, utilizando el diálogo para guiar a los usuarios a través de las técnicas básicas de la terapia cognitivo-conductual. Pero muchos psicólogos dudan de que un algoritmo de IA pueda expresar alguna vez el tipo de empatía necesaria para que la terapia interpersonal funcione.
«Estas aplicaciones realmente reducen el ingrediente esencial que, según muestran montones de evidencia, es lo que ayuda en la terapia, que es la relación terapéutica», dijo Linda Michaels, terapeuta con sede en Chicago que es copresidenta de Psychotherapy Action Network, un grupo profesional , dijo a The Times.
La empatía, por supuesto, es una calle de doble sentido, y los humanos no mostramos mucho más para los bots que los bots para nosotros. Numerosos estudios han encontrado que cuando las personas se encuentran en una situación en la que pueden cooperar con una IA benévola, es menos probable que lo hagan que si el bot fuera una persona real.
“Parece faltar algo en lo que respecta a la reciprocidad”, me dijo Ophelia Deroy, filósofa de la Universidad Ludwig Maximilian, en Munich. «Básicamente, trataríamos a un perfecto extraño mejor que a la IA»
En un estudio reciente, la Dra. Deroy y sus colegas neurocientíficos se propusieron comprender por qué. Los investigadores emparejaron sujetos humanos con compañeros invisibles, a veces humanos ya veces IA; Luego, cada pareja jugó una serie de juegos económicos clásicos: Confianza, Prisoner’s Dilemma, Chicken y Stag Hunt, así como uno que crearon llamado Reciprocity, diseñado para medir y recompensar la cooperación.
Se asume comúnmente que nuestra falta de reciprocidad hacia la IA refleja una falta de confianza. Es hiperracional e insensible, después de todo, seguramente solo por sí mismo, es poco probable que coopere, así que ¿por qué deberíamos hacerlo? La Dra. Deroy y sus colegas llegaron a una conclusión diferente y quizás menos reconfortante. Su estudio encontró que las personas eran menos propensas a cooperar con un bot incluso cuando el bot estaba dispuesto a cooperar. No es que no confiemos en el bot, es que lo hacemos: el bot es benevolente garantizado, un chupador de mayúsculas, así que lo explotamos.
Esa conclusión fue confirmada por conversaciones posteriores con los participantes del estudio. «No solo tendían a no corresponder las intenciones cooperativas de los agentes artificiales», dijo el Dr. Deroy, «sino que cuando básicamente traicionaron la confianza del bot, no informaron de culpa, mientras que con los humanos sí lo hicieron». Ella agregó: «Puede simplemente ignorar el bot y no hay sensación de que haya roto ninguna obligación mutua».
Esto podría tener implicaciones en el mundo real. Cuando pensamos en la IA, tendemos a pensar en los Alexas y Siris de nuestro mundo futuro, con quienes podríamos formar una especie de relación de falsa intimidad. Pero la mayoría de nuestras interacciones serán encuentros únicos, a menudo sin palabras. Imagínese conduciendo por la autopista y un automóvil quiere incorporarse frente a usted. Si nota que el automóvil no tiene conductor, será mucho menos probable que lo deje entrar. Y si la IA no tiene en cuenta su mal comportamiento, podría producirse un accidente.
«Lo que sostiene la cooperación en la sociedad a cualquier escala es el establecimiento de ciertas normas», dijo el Dr. Deroy. “La función social de la culpa es exactamente hacer que las personas sigan las normas sociales que las llevan a comprometerse, a cooperar con los demás. Y no hemos evolucionado para tener normas sociales o morales para las criaturas no sensibles y los robots «.
Eso, por supuesto, es la mitad de la premisa de «Westworld». (Para mi sorpresa, la Dra. Deroy no había oído hablar de la serie de HBO). Pero un paisaje libre de culpa podría tener consecuencias, señaló: “Somos criaturas de hábitos. Entonces, ¿qué garantiza que el comportamiento que se repite, y en el que muestra menos cortesía, menos obligación moral, menos cooperación, no coloreará ni contaminará el resto de su comportamiento cuando interactúe con otro ser humano? «
También hay consecuencias similares para la IA. «Si la gente los trata mal, están programados para aprender de lo que experimentan», dijo. «Una IA que se puso en marcha y se programó para ser benevolente debería empezar a no ser tan amable con los humanos, porque de lo contrario se quedará atrapada en el tráfico para siempre». (Esa es la otra mitad de la premisa de «Westworld», básicamente).
Ahí lo tenemos: la verdadera prueba de Turing es la furia en la carretera. Cuando un automóvil autónomo comienza a tocar la bocina salvajemente desde atrás porque lo corta, sabrá que la humanidad ha alcanzado la cima del logro. Para entonces, con suerte, la terapia de inteligencia artificial será lo suficientemente sofisticada como para ayudar a los autos sin conductor a resolver sus problemas de manejo de la ira.