Proteja al público de los riesgos de la IA, dice la Casa Blanca a los gigantes tecnológicos

En una reunión de destacados líderes tecnológicos en la Casa Blanca el jueves, la vicepresidenta Kamala Harris recordó a los asistentes que tienen la «responsabilidad ética, moral y legal de garantizar la seguridad» de la nueva ola de herramientas de IA generativa que tienen ganado gran atención en los últimos meses.

La reunión es parte de un esfuerzo más amplio para involucrar a defensores, empresas, investigadores, organizaciones de derechos civiles, organizaciones sin fines de lucro, comunidades, socios internacionales y otros en temas importantes de IA, dijo la Casa Blanca.

Harris y otros funcionarios les dijeron a los líderes de Google, Microsoft, Anthropic y OpenAI, la compañía detrás del chatbot ChatGPT, que los gigantes tecnológicos deben cumplir con las leyes existentes para proteger al pueblo estadounidense del mal uso de la nueva ola de productos de IA. Se espera que las nuevas regulaciones para la IA generativa entren en vigor en poco tiempo, pero el nivel al que restrinjan la tecnología dependerá en cierta medida de cómo las empresas implementen sus tecnologías de IA en el futuro.

También el jueves, la Casa Blanca compartió un documento que describe nuevas medidas diseñadas para promover la innovación responsable de la IA. La acción incluye $ 140 millones en fondos para siete nuevos Institutos Nacionales de Investigación de IA, lo que eleva el número total de dichos institutos a 25 en los EE. UU.

Los chatbots avanzados como ChatGPT y Bard de Google responden a mensajes de texto y son capaces de responder de una manera muy similar a la de los humanos. Ya pueden realizar una amplia gama de tareas de manera impresionante, como escribir presentaciones e historias, resumir información e incluso escribir código de computadora.

Pero con las empresas de tecnología compitiendo para poner su tecnología de chatbot al frente y al centro integrándola en las herramientas en línea existentes, existen temores sobre las implicaciones a largo plazo de la tecnología para la sociedad en general, por ejemplo, cómo afectará el lugar de trabajo o conducirá a nuevos tipos. de la actividad delictiva. Incluso hay preocupaciones sobre cómo la tecnología, si se permite que se desarrolle sin control, podría ser una amenaza para la humanidad misma.

El jefe de OpenAI, Sam Altman, dijo en marzo que está «un poco asustado» por los efectos potenciales de la IA, mientras que una carta reciente publicada por expertos en IA y otros en la industria tecnológica pedía una pausa de seis meses en el desarrollo de IA generativa para permitir tiempo para la creación de protocolos de seguridad compartidos.

Y justo esta semana, Geoffrey Hinton, el hombre ampliamente considerado como el «padrino de la IA» por su trabajo pionero en el campo, renunció a su puesto en Google para poder hablar más libremente sobre sus preocupaciones con respecto a la tecnología. El ingeniero de 75 años dijo que a medida que las empresas tecnológicas lanzan sus herramientas de inteligencia artificial para uso público sin ser plenamente conscientes de su potencial, es «difícil ver cómo se puede evitar que los malos actores las usen para cosas malas».

Aún más alarmante, en una entrevista reciente de CBS en la que se le preguntó acerca de la probabilidad de que la IA “aniquilara a la humanidad”, Hinton respondió: “Eso no es inconcebible”.

Pero también se debe tener en cuenta que la mayoría de los que expresan preocupaciones también creen que, si se maneja de manera responsable, la tecnología podría tener grandes beneficios para muchas partes de la sociedad, incluida, por ejemplo, la atención médica, lo que conduciría a mejores resultados para los pacientes.

Recomendaciones de los editores






Salir de la versión móvil