Fernando Schapachnik, director ejecutivo de la Fundación Sadoskyconsideró «inevitable» que los programas de Inteligencia Artificial (IA) afectará puestos de trabajo y pidió regulaciones.
En línea con la carta publicada por Elon Musk esta semana, insistió en las medidas regulatorias para estas plataformas que volvieron al centro del debate público ya no por su capacidad para realizar múltiples tareas o agregar millones de usuarios, sino porque cientos de académicos y directores ejecutivos de tecnología preguntaron. un descanso en su investigación considerando que representan “grandes riesgos para la humanidad”.
En entrevista con Télam, Schapachnik destacó los interrogantes planteados por el fundador de Tesla y Space X, Elon Musk, y el historiador y escritor israelí Yuval Noah Harari, entre otros, al pedir analizar los riesgos de las nuevas tecnologías antes de lanzarlas al mercado. y «Discutiendo la falsa dicotomía entre innovación y regulación».
La Fundación Sadosky es una institución público-privada que promueve la articulación entre el sistema científico-tecnológico y la estructura productiva en todo lo relacionado con el uso de las tecnologías de la información y la comunicación (TIC).
A cargo de la dirección ejecutiva desde mediados de 2021, Schapachnik es profesor del Departamento de Informática de la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires, Doctor en Informática e Investigador del Instituto de Informática UBA – CONICET.
─Cientos de personalidades del mundo de la tecnología y la academia publicaron esta semana una carta advirtiendo de los «grandes riesgos» que las IA suponen para la humanidad. ¿Estás de acuerdo con ese punto de vista?
─No hay que ser ingenuo, hay académicos muy importantes pero los perdedores de la carrera sacaron la carta dentro del mundo de la tecnología. Aún así, pedir más regulación Argumentan que esto abre preguntas fundamentales para la humanidad, y dicen que las respuestas a estas preguntas no pueden dejarse en manos de líderes tecnológicos no elegidos. Reconocen que el mercado no puede ser el que defina temas tan trascendentales para la humanidad porque sería antidemocrático. Lo democrático sería que son las personas que elegimosDe eso se trata la democracia.
─ ¿Cree que los riesgos de estas tecnologías no se midieron cuando se dieron a conocer al público?
─La evaluación de riesgos de una tecnología debe hacerse desde el momento de su concepción y no una vez que ya ha sido liberada. La pregunta al desarrollar una tecnología debe ser si los beneficios que proporcionará justifican los riesgos. Una tecnología es valiosa si sirve a toda la sociedad, si todo lo que hace es enriquecer a un puñado de personas, entonces no es socialmente valioso.
¿Cuáles son esos riesgos?
─El efecto que tienen sobre el mundo del trabajo no puede dejar de preocuparnos. El hecho de que van a desplazar mano de obra humana es inevitable, por lo que el impacto en la desigualdad y el desempleo debe ser una preocupación primordial. La herramienta fue sometida a una serie de pruebas estandarizadas, las que se dan para ingresar a la universidad, y vio la diferencia de rendimiento de la versión original de Chat GPT y la nueva versión que salió 4 meses después. Esta herramienta podría habilitar, metafóricamente, para trabajos que gran parte de la población no podría porque no alcanzaría esas calificaciones.
─Se vio en varias ocasiones que estas plataformas también tienen errores y sesgos en la información que brindan. ¿Cómo tomas esto?
─Cuando estos sistemas no tienen información, se dice, técnicamente, que son «delirantes». Si nos enfocamos en eso perdemos el punto importante ya que por supuesto tienen muchos sesgos, pero si usted toma al azar a un ciudadano que también tiene prejuicios y está equivocado. Si le pido que realice una tarea que un humano realiza hoy, como generar un contrato de alquiler, una respuesta en un centro de llamadas, iniciar una venta o escribir un artículo periodístico, puede hacerlo lo suficientemente bien como para poner en riesgo enormes cantidades de empleo humano.
─¿Cuáles son las implicaciones de los programas de IA en la sociedad como nuevas tecnologías?
─Son una tecnología que permite la creación de imágenes y videos; entonces ya no podemos confiar en nuestros sentidos para distinguir la realidad de la ficción. El problema de las fake news no es nuevo, pero la diferencia es que antes se mediaba la supuesta realidad y en esa mediación aparecía la mentira. Ahora la IA me obliga a desconfiar de algo tan elemental como mis sentidos. Si estoy viendo un video con mis ojos. ¿Cómo es una mentira? quéComo es mentira si escucho un audio con la voz de esa persona?
─Dado este escenario, ¿cómo se debe avanzar en la regulación?
─Es hora de discutir la falsa dicotomía entre innovación y regulación. Tenemos que pensar seriamente en regular estas tecnologías. La industria farmacéutica está fuertemente regulada ya que no puede lanzar un producto antes de que sea aprobado en cada país con estándares muy rigurosos y nadie podría caracterizar a esta industria como poco innovadora. Es falso que una mayor regulación sea un obstáculo para la innovación.
─¿Cómo se debe avanzar en este marco normativo?
─Es un tema que debe ser trabajado por organismos internacionales y los países también deben desarrollar marcos regulatorios nacionales como una cuestión de soberanía. El mercado digital no está acostumbrado a las regulaciones porque en la historia de la humanidad es muy novedoso y ha tenido poder de cabildeo que resistió todos los intentos de regulación. El potencial de cambio y daño de las tecnologías basadas en IA me parece fuera de discusión, es hora de regularlas.
Sobre la fundación
“La Fundación Dr. Manuel Sadosky es una institución público-privada cuyo objetivo es promover la articulación entre el sistema científico-tecnológico y la estructura productiva en todo lo relacionado con el tema de las Tecnologías de la Información y la Comunicación (TIC)”, explican desde la sitio oficial.
“Creada mediante Decreto N° 678/09 del Poder Ejecutivo Nacional, la Fundación es presidida por el Ministro de Ciencia, Tecnología e Innovación. Sus vicepresidentes son los presidentes de las cámaras más importantes del sector TIC: CESSI (Cámara de Empresas de Software y Servicios Informáticos) y CICOMRA (Cámara de Informática y Comunicaciones de la República Argentina), desde abril de 2011 cuenta con una estructura ejecutiva destinada a implementar diferentes programas que favorezcan esta articulación«, cierran.
Con información de Télam (Iván Hojman)