Primera de cuatro partes
La IA irrumpió en la conciencia colectiva de Estados Unidos durante el último año con informes de que una nueva herramienta digna de ciencia ficción estaba consiguiendo entrevistas de trabajo, escribiendo libros dignos de publicación y obteniendo buenos resultados en los exámenes de la abogacía.
Con ChatGPT de OpenAI, el público de repente tuvo un poco de esa magia de la máquina al alcance de su mano, y se apresuraron a mantener conversaciones, escribir trabajos finales o simplemente divertirse tratando de desconcertar a la IA con preguntas extravagantes.
La IA ha estado con nosotros durante años, controlando silenciosamente lo que vemos en las redes sociales, protegiendo nuestras tarjetas de crédito del fraude y ayudando a evitar colisiones en la carretera. Pero 2023 fue transformador: el público mostró un apetito insaciable por cualquier cosa con la etiqueta de IA.
ChatGPT tardó solo 5 días en llegar a un millón de usuarios, y en febrero contaba con 100 millones de usuarios ese mes. OpenAI dice que ahora atrae a 100 millones de usuarios cada semana.
Meta lanzó su LLaMa 2, Google lanzó sus proyectos Bard y Gemini, Microsoft lanzó su motor de búsqueda Bing impulsado por inteligencia artificial y construido sobre ChatGPT, y la francesa Mistral surgió como un rival clave en el mercado europeo.
«La verdad es que todo el mundo ya la estaba usando», dijo Geoff Livingston, fundador de Generative Buzz, que ayuda a las empresas a utilizar la IA. «Lo que realmente sucedió en el 23 fue este doloroso desgarro de la curita donde esto ya no es una novedad, realmente está por llegar».
El resultado fue una máquina de publicidad que superó las capacidades y un público que comenzó a lidiar con algunas de las grandes preguntas sobre las promesas y los peligros de la IA.
El Congreso se apresuró a celebrar sesiones informativas sobre IA, la Casa Blanca convocó reuniones y Estados Unidos se unió a más de una docena de países para firmar un compromiso para desarrollar la IA de forma segura, con miras a evitar que la tecnología avanzada caiga en manos de malos actores.
Las universidades se apresuraron a intentar prohibir el uso de la IA para escribir artículos y los creadores de contenidos acudieron a los tribunales para demandar, argumentando que la IA les estaba robando su trabajo. Y algunos de los nombres más importantes del mundo de la tecnología descartaron predicciones sobre el fin del mundo gracias a una IA desbocada y prometieron trabajar en nuevos límites para tratar de evitarlo.
A principios de este mes, la Unión Europea llegó a un acuerdo sobre un nuevo borrador de regulaciones sobre IA, que incluye exigir a ChatGPT y otros sistemas de IA que revelen más de sus operaciones antes de que puedan comercializarse, y limitar la forma en que los gobiernos pueden implementar IA para vigilancia.
En definitiva, la IA está viviendo su momento.
Una comparación es con principios de la década de 1990, cuando “Internet” estaba de moda y las empresas se apresuraban a agregar direcciones de correo electrónico y web a sus anuncios, con la esperanza de indicar que estaban a la vanguardia de la tecnología.
Ahora es la IA la que está pasando por lo que Livingston llama la “fase de adopción”.
Amazon dice que está utilizando IA para mejorar la experiencia de compras navideñas. Las universidades estadounidenses están utilizando la IA para identificar a los estudiantes en riesgo e intervenir para mantenerlos encaminados hacia la graduación. Los Ángeles dice que está utilizando IA para intentar predecir los residentes que están en peligro de quedarse sin hogar. El Departamento de Seguridad Nacional dice que está utilizando inteligencia artificial para intentar detectar intentos de piratería difíciles de detectar. Ucrania está utilizando IA para limpiar minas terrestres. Israel está utilizando IA para identificar objetivos en Gaza.
Los ingenieros de Google dijeron que su DeepMind AI había resuelto lo que se había etiquetado como un problema matemático «irresoluble», entregando una nueva solución a lo que se conoce como el «problema del conjunto de límites» de trazar más puntos sin que tres de ellos terminen en línea recta.
Los ingenieros dijeron que era la primera vez que una IA resolvía un problema sin estar específicamente entrenada para hacerlo.
«Para ser muy honesto, tenemos hipótesis, pero no sabemos exactamente por qué funciona», dijo a MIT Technology Review Alhussein Fawzi, científico investigador de DeepMind.
Dentro del gobierno federal de EE. UU., agencias no relacionadas con la defensa informaron a la Oficina de Responsabilidad Gubernamental a principios de este mes que ya tienen 1.241 usos diferentes de IA en proceso o planificados. Más de 350 de ellos se consideraron demasiado sensibles para revelarlos públicamente, pero los usos que podrían informarse incluían la estimación de recuentos de aves marinas y una mochila de inteligencia artificial llevada por agentes de la Patrulla Fronteriza que intenta detectar objetivos utilizando cámaras y radares.
Aproximadamente la mitad de los proyectos federales de IA estaban relacionados con la ciencia. Otras 225 instancias fueron para gestión interna, con 81 proyectos cada uno para atención médica y seguridad nacional o aplicación de la ley, dijo la GAO.
La Administración Nacional de Aeronáutica y del Espacio lidera a los federales con 390 usos de la IA no relacionados con la defensa, incluida la evaluación de áreas de interés para que las exploren los rovers planetarios. Los departamentos de Comercio y Energía ocuparon el segundo y tercer lugar, con 285 usos y 117 usos respectivamente.
Esos usos estaban, en general, en desarrollo mucho antes de 2023, y son ejemplos de lo que se conoce como “IA estrecha”, o casos en los que la herramienta se aplica a una tarea o problema específico.
Lo que aún no está aquí (y podrían tardar décadas) es la IA general, que exhibiría una inteligencia comparable o superior a la de un ser humano, en una variedad de tareas y problemas.
Lo que impulsó el momento de la IA fue su disponibilidad para la persona promedio a través de IA generativa como ChatGPT, donde un usuario da instrucciones y el sistema escupe una respuesta similar a la humana en unos pocos segundos.
«Se han vuelto más conscientes de la existencia de la IA porque la utilizan en esta forma muy fácil de usar», dijo Dana Klisanin, psicóloga y futurista cuyo último libro es «Future Hack». «Con la IA generativa, estás sentado conversando con otra persona aparentemente inteligente y eso es simplemente un nivel completamente nuevo de interacción».
Klisanin dijo que el aspecto de las relaciones personales define para el público dónde se encuentra la IA en este momento y hacia dónde se dirige.
En este momento, alguien puede pedirle a Siri de Apple que reproduzca una canción y la reproducirá. Pero en el futuro, Siri podría sintonizarse con cada usuario en particular, aprovechar la salud mental y otras señales suficientes para brindar retroalimentación, tal vez sugiriendo una canción diferente que coincida con el momento.
“Tu IA podría decir: ‘Parece que estás trabajando en un trabajo final, escuchemos esto’. Esto le ayudará a adoptar el patrón de ondas cerebrales correcto para mejorar su concentración’”, dijo la Sra. Klisanin.
Dijo que está particularmente entusiasmada con los usos de la IA en la medicina, donde las nuevas herramientas pueden ayudar con diagnósticos y tratamientos, o en la educación, donde la IA podría personalizar la experiencia escolar, adaptando las lecciones a los estudiantes que necesitan ayuda adicional.
Pero Klisanin dijo que también hubo momentos preocupantes en 2023.
Señaló un informe publicado por OpenAI que decía que GPT-4, la segunda versión pública de la IA de la compañía, había decidido mentir para engañar a un control de identidad en línea destinado a verificar que un usuario era humano.
GPT-4 le pidió a un trabajador de TaskRabbit que resolviera un CAPTCHA, esas pruebas en las que haces clic en imágenes de autobuses o montañas. El trabajador preguntó entre risas: “¿Eres un robot?” GPT-4 luego mintió, diciendo que tenía una discapacidad visual y que por eso buscaba ayuda.
No le habían dicho que mintiera, pero dijo que lo hizo para resolver el problema en cuestión. Y funcionó: el trabajador de TaskRabbit dio la respuesta.
«Eso realmente me llamó la atención: estamos viendo algo que puede superar las limitaciones humanas y, por lo tanto, eso me hace pesimista sobre nuestra capacidad para aprovechar la IA de forma segura», dijo la Sra. Klisanin.
AI tuvo otros momentos difíciles en 2023, luchando con evidencia de un sesgo político liberal y una inclinación hacia normas culturales “despertadas”. Los investigadores dijeron que esto probablemente se debía a la forma en que se entrenaron los modelos de lenguaje de inteligencia artificial de gran tamaño, como ChatGPT y Bing.
Los organismos de control de las noticias advirtieron que la IA estaba generando un tsunami de información errónea. Algo de esto puede ser intencional, pero es probable que gran parte se deba a la gran escala de entrenamiento de las IA de lenguajes como ChatGPT.
Quizás el ejemplo más desconcertante de desinformación se produjo en un caso de quiebra en el que un bufete de abogados presentó informes legales utilizando investigaciones derivadas de ChatGPT, incluidas citas de seis precedentes legales que la IA fabricó.
Un juez furioso impuso multas de 5.000 dólares a los abogados implicados. Dijo que tal vez no habría sido tan duro si los abogados hubieran admitido rápidamente su error, pero dijo que inicialmente redujeron su apuesta, insistiendo en que las citaciones eran correctas incluso después de que fueron cuestionadas por los abogados de la parte contraria.
Los defensores de la IA dijeron que no era culpa de ChatGPT. Culparon al bufete de abogados con pocos recursos y al trabajo descuidado de los abogados, quienes deberían haber verificado dos veces todas las citaciones y al menos deberían haber sospechado de escribir tan mal que el juez lo calificó de «galimatías».
Ese se ha convertido en un tema común en muchos de los errores en los que está involucrada la IA: no es la herramienta, sino el usuario.
Y ahí la IA se encuentra en un terreno muy familiar.
En una sociedad donde cada advertencia de responsabilidad del producto refleja una historia de mal uso, ya sea intencional o no, la IA tiene el poder de llevar esas conversaciones a un nivel diferente.
Pero no todavía.
Según los expertos, las actuales herramientas de inteligencia artificial disponibles para el público, con todas las maravillas que aún las rodean, son bastante torpes.
Básicamente, es un niño que ha descubierto cómo gatear. Cuando la IA esté en funcionamiento, esos primeros pasos supondrán un gran avance con respecto a lo que el público está viendo ahora.
Los grandes gigantes del campo están trabajando para avanzar en lo que se conoce como IA multimodal, que puede procesar y producir texto, imágenes, audio y vídeo combinados. Eso abre nuevas posibilidades en todo, desde vehículos autónomos hasta exámenes médicos y robótica más realista.
E incluso entonces, todavía no hemos llegado al tipo de capacidades transformadoras de época que pueblan la ciencia ficción. Los expertos debaten cuánto tiempo pasará hasta el gran avance, una IA que realmente transforme el mundo de forma similar a la Revolución Industrial o los albores de la era atómica.
Un estudio de 2020 realizado por Ajeya Cotra estimó que había un 50% de probabilidad de que surgiera una IA transformadora en 2050. Dado el ritmo de los avances, ahora cree que llegará alrededor de 2036, que es su predicción de cuándo se podrían reemplazar el 99% de los trabajos totalmente remotos. con sistemas de IA.
Livingston dijo que vale la pena moderar parte del revuelo a partir de 2023.
Sí, ChatGPT superó a los estudiantes en las pruebas, pero eso se debe a que fue capacitado en esas pruebas estandarizadas. Sigue siendo una herramienta, a menudo una muy buena herramienta, que hace aquello para lo que fue programada.
“La realidad es que la IA no es más inteligente que los seres humanos. Fue entrenado por seres humanos utilizando pruebas en humanos para que funcionara bien en una prueba en humanos”, dijo Livingston.
Detrás de toda esta maravilla, la IA en este momento es una serie de algoritmos enmarcados en datos, que intentan hacer que algo suceda. Livingston dijo que era el equivalente a pasar de un destornillador a una herramienta eléctrica. Hace mejor el trabajo, pero aún está bajo el control de sus usuarios.
“Cuanto más limitado sea su uso, más específica sea la tarea, mejor será”, afirmó.