Sam Altman, CEO de OpenAI, concedió una entrevista en la que habló sobre los temores que rodean a su herramienta.
Cada año, la Sohn Conference Foundation organiza un concurso de ideas en el que los expertos en tecnología y los directores ejecutivos de empresas emergentes también discuten y presuponen lo que traerá el futuro. En esta ocasión, el gerente de Stripe, Patrick Collison, entrevistó a su colega Sam Altman de OpenAI sobre los riesgos y posibilidades de la inteligencia artificial.
Además, reveló cual es el uso mas comun que los usuarios dan a su herramienta: «El caso de uso más común para ChatGPT es el resumen de textos para poder estar al día con correo electrónico y mensajes de Slack».
la charla fue escalando en intensidad y el primer tema fue económico: World Coin, el proyecto «crypto» de Altman. A su entender, la IA podría desencadenar un aumento masivo en el crecimiento económico identificando las inversiones y diseños más productivos para las empresas.
De esta manera, la IA puede tener impactos económicos mucho más relevantes y profundos. Él mismo da como ejemplo que una IA que pudiera asignar fondos de manera efectiva a la investigación del cáncer podría ahorrar miles de millones de dólares mientras acelera el progreso en la búsqueda de una cura.
El plato principal se sirvió de inmediato ya que se habló de la Impacto de ChatGPT y todo lo que OpenAI está haciendo en la industria de búsqueda web.
«Los modelos de lenguaje van a cambiar mucho la búsqueda en Internet, pero no son una amenaza para la búsqueda. Y serían una amenaza para Google solo si no hicieran nada al respecto y, obviamente, Google no hará nadaseñaló Altmann.
Además, reveló que está desarrollando un programa que permite a los conversación natural con agentes de IA (programas como AutoGPT, que utilizan modelos lingüísticos de forma autónoma, sin depender de humanos), lo que podría tener importantes consecuencias sociales.
Confiar únicamente en el aprendizaje por refuerzo para la IA no es una buena solución a largo plazo. La clave para lograr la ‘alineación’ (el término para la convergencia de la IA y los intereses humanos) es comprender el funcionamiento interno de los modelos.
«Creo que los materiales nucleares y las supercomputadoras de IA tienen algunas similitudes y que es en este campo en el que podemos establecer más paralelismos e inspiración que en otros. Pero también me gustaría advertir a la gente que no se apresure a sacar conclusiones de esto. Estoy pensando, específicamente , de proponer algo así como un OIEA para la inteligencia artificial».
Por eso entiende que, aunque hay que evitar la tentación de inspirarse demasiado en tecnologías anteriores, establecer un agencia reguladora mundial para los potentes sistemas de entrenamiento de IA, es crucial para la seguridad.
IA: los debates estériles de Twitter
Preguntado por los temores que despiertan estos avances en una sociedad que ve cómo estos sistemas inteligentes se llevan su trabajo, el director general de OpenAI cargó contra discusiones en las redes sociales.
Considera que hay demasiadas discusiones que no aportan nada ya que realmente no son extrapolables a un trabajo real que llega a un puerto específico. De esta manera, se pierde mucho en el camino y son debates estériles y discusiones bizantinas que no llegan a ningún puerto en absoluto.
Muchas de las personas que dicen estar preocupadas por la seguridad de las IA simplemente pasan el día en Twitter diciendo que están muy preocupadas por la seguridad de las IA.
“Hay gente que está muy preocupada y hace un gran trabajo técnico al respecto, pero necesitamos más gente así. Lo que el mundo necesita no es que más personas escriban largas discusiones filosóficas en Twitter”, dijo Altman.
SL