Max Tegmark, del Instituto de Tecnología de Massachusetts (MIT)y Yoshua Bengio, de la Universidad de Montreal, han advertido sobre el peligro de construir sistemas demasiado avanzados. Inteligencia artificial general Podría convertirse en un problema grave si no se establece el control adecuado sobre su desarrollo. Una advertencia que proviene de dos de los mejores expertos en todo el mundo.
El crecimiento acelerado de la inteligencia artificial ha llevado a La creación de sistemas llamados «agentes de IA»Diseñado para actuar más autonomía y tomar decisiones sin intervención humana directa.
Las empresas líderes en el sector tecnológico promueven esta evolución con la promesa de mejorar la productividad y facilitar la vida cotidiana. Sin embargo, Bengio advierte, en el podcast Más allá del valle de CNBC, que este enfoque implica un riesgo importantepara otorgar a Ai la capacidad de actuar por su cuenta sin una supervisión efectiva.
Inteligencia artificial general y su posible riesgo: los expertos advierten
CNBC
Según el investigador, la clave del problema radica en la agencia de IA, es decir, su capacidad para establecer y perseguir sus propios objetivos. «Estamos creando una nueva forma de inteligencia en nuestro planeta sin saber si sus decisiones serán compatibles. Con nuestras necesidades «, dice Bengio.
Esta incertidumbre es lo que lleva a los expertos a solicitar una regulación estricta antes de que la tecnología avance demasiado.
El mayor miedo a los especialistas no es solo la autonomía de estos sistemas, sino el desarrollo potencial de los mecanismos de auto -conservación dentro de la IA. Bengio se pregunta: «¿Queremos competir con entidades que son más inteligentes que nosotros? No es una apuesta muy tranquilizadora, ¿verdad? Es por eso que tenemos que entender cómo la auto -conservación puede surgir como un objetivo en la IA. »
Este escenario podría conducir a una falta de control sobre los sistemas avanzados, lo que haría que su evolución sea impredecible.
La posibilidad de que una IA busque su propia supervivencia o tome decisiones que no coincidan con las necesidades humanas plantean dilemas éticos y técnicos. Aunque en este momento no hay inteligencia artificial que tenga verdadera conciencia O intenciones, la tendencia actual hacia sistemas cada vez más autónomos genera preocupación entre los investigadores.
Herramientas de inteligencia artificiales autónomas en su lugar
Max Tegmark propone una solución diferente al desarrollo de agentes autónomos, como centrarse en la creación de «la herramienta». Este concepto se basa en el diseño de sistemas inteligentes con propósitos específicos y bajo un marco de control estricto, en lugar de permitirles operar con plena autonomía.
Los ejemplos de este enfoque incluyen herramientas avanzadas para la medicina, como sistemas capaces de sugerir tratamientos contra el cáncer o vehículos autónomos diseñados con protocolos de seguridad que garantizan el control humano en todo momento. Tegmark cree que, con estándares de seguridad adecuados, la IA puede evolucionar sin convertirse en un riesgo.
«Creo que, al ser optimista, podemos tener casi todo lo que nos excita de la IA … sí Simplemente insistimos en tener algunos estándares básicos de seguridad Antes de que las personas puedan vender poderosos sistemas de IA «, dice Tegmark.
El problema es que actualmente no hay estándares globales que regulen el desarrollo de estos sistemas, lo que deja la puerta abierta a usos potencialmente peligrosos.
En 2023, el Future of Life Institute, dirigido por Tegmark, Instó a las empresas a detener el desarrollo de sistemas de IA que pueden igualar o superar la inteligencia humana.incluso establecer medidas de control adecuadas. Aunque esta solicitud no se ha materializado, la discusión sobre los riesgos de la IA ha ganado relevancia en los últimos meses.
Saber Cómo trabajamos en Informática.
Etiquetas: Inteligencia artificial
Con información de Telam, Reuters y AP








