Tsu historia comienza el 27 de agosto de 2019, cuando Roberto Mata era pasajero en el vuelo 670 de Avianca de El Salvador a Nueva York y un carrito metálico de alimentos y bebidas presuntamente se lastimó la rodilla. Como es costumbre en los Estados Unidos, Mata demandó debidamente a Avianca y la aerolínea respondió pidiendo que se desestimara el caso porque “el plazo de prescripción había expirado”. Los abogados de Mata argumentaron el 25 de abril que la demanda debería continuar y adjuntar una lista de más de media docena de casos judiciales anteriores que aparentemente sientan precedentes que respaldan su argumento.
Los abogados de Avianca y el juez P. Kevin Castel se embarcaron diligentemente en un examen de estos «precedentes», solo para descubrir que ninguno de las decisiones o de las citas jurídicas citadas y resumidas en el escrito existían.
¿Por qué? Porque ChatGPT los había inventado. Con lo cual, como el New York Times dice el informe, “el abogado que creó el escrito, Steven A Schwartz de la firma Levidow, Levidow & Oberman, se arrojó a la merced de la corte… diciendo en una declaración jurada que había usado el programa de inteligencia artificial para hacer su investigación legal – ‘una fuente que se ha revelado como poco confiable’.”
Este Schwartz, por cierto, no era un novato recién salido de la facultad de derecho. Ha ejercido la abogacía en el nido de serpientes que es Nueva York. para tres décadas. Pero, al parecer, nunca antes había usado ChatGPT y «por lo tanto, desconocía la posibilidad de que su contenido pudiera ser falso». Incluso le había pedido al programa que verificara que los casos eran reales, y le había dicho que “sí”. Oh, caray.
Uno recuerda esa vieja historia del tipo que, después de haber disparado a su padre y a su madre, luego se arroja a la merced de la corte con el argumento de que ahora es huérfano. Pero el caso Mata es solo otra ilustración de la locura por la IA que reina actualmente. He perdido la cuenta de la cantidad de humanos aparentemente conscientes que han salido embrujados de conversaciones con «chatbots», el término educado para «loros estocásticos» que no hacen nada más que hacer predicciones estadísticas de la palabra más probable que se agregará a la oración. en ese momento están ocupados en componer.
Pero si crees que el espectáculo de humanos ostensiblemente inteligentes siendo apresados por loros robóticos es extraño, entonces tómate un momento para reflexionar sobre los tejemanejes positivamente surrealistas en otras partes del bosque de la IA. Esta semana, por ejemplo, un gran número de luminarias de la tecnología firmaron una declaración de que «Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear». Muchas de estas personas son investigadores eminentes en el campo del aprendizaje automático, incluidos algunos que son empleados de grandes empresas tecnológicas. Algún tiempo antes del lanzamiento, tres de los firmantes, Sam Altman de OpenAI, Demis Hassabis de Google DeepMind y Dario Amodi de Anthropic (una empresa formada por «desertores» de OpenAI), fueron invitados a la Casa Blanca para compartir con el presidente y el vicepresidente -presidente sus temores sobre los peligros de la IA, después de lo cual Altman hizo su presentación ante el Senado de los EE. UU., diciendo que «la intervención regulatoria de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más poderosos».
Da un paso atrás de esto por un momento. Aquí tenemos representantes de alto nivel de una industria poderosa e inconcebiblemente rica, además de sus partidarios y colegas en laboratorios de investigación de élite en todo el mundo, que por un lado están hipnotizados por los desafíos técnicos de construir una tecnología que creen que podría ser una amenaza existencial para humanidad, al mismo tiempo que pide a los gobiernos que la regulen. Pero el pensamiento que nunca parece entrar en lo que podría llamarse su mente es la pregunta que cualquier niño se haría: si es tan peligroso, ¿por qué sigues construyéndolo? ¿Por qué no parar y hacer otra cosa? ¿O al menos dejar de liberar estos productos en la naturaleza?
Las miradas en blanco que uno recibe de la multitud tecnológica cuando se hacen estas preguntas simples revelan la incómoda verdad sobre estas cosas. Ninguno de ellos, sin importar cuán altos sean, puede detenerlo, porque todos son servidores de IA que son incluso más poderosas que la tecnología: las corporaciones para las que trabajan. Estas son las máquinas genuinamente superinteligentes bajo cuyo dominio todos vivimos, trabajamos y existimos ahora. Al igual que la IA demoníaca creadora de clips de papel de Nick Bostrom, tales superinteligencias existen para lograr un solo objetivo: la maximización del valor para los accionistas; si los mezquinos escrúpulos humanistas se interponen en el camino de ese objetivo, tanto peor para la humanidad. De verdad, no podrías inventarlo. Sin embargo, ChatGPT podría hacerlo.
lo que he estado leyendo
Manteniéndolo de baja tecnología
Tim Harford ha escrito una columna característicamente reflexiva para el Tiempos financieros sobre lo que los neo-luditas aciertan (y no) sobre la gran tecnología.
mantente despierto
Substack de Margaret Wertheim presenta una publicación de blog muy perspicaz sobre la IA como síntoma y sueño.
mucho extrañado
Martin Amis sobre Jane Austen en el sitio Literary Hub es un buen recordatorio (de 1996) del novelista como crítico.