El impacto a largo plazo de inteligencia artificial En la vida humana sigue siendo un misterio. Aunque esta tecnología llegó a solucionar muchos problemas cotidianos, el debate sobre si Puede o no exterminar la civilización. convoca cada vez a más expertos. Para Elon Musk, esta hipótesis tiene 20% de posibilidades de llegar a buen puerto.
El CEO de Tesla, la red social X y SpaceX afirmó en declaraciones al sitio Business Insider que el riesgo de que una inteligencia artificial destruir a la humanidad está entre el 10 y el 20%.
Sin embargo, es importante señalar que Musk no mencionó el riesgo de que dicha tecnología se vuelva contra los humanos y su pronóstico no es tan desalentador, pues afirmó que los posibles beneficios compensarán cualquier escenario negativo.
Durante el seminario ‘The Great AI Debate’, Musk comparó el desarrollo de la IA con la crianza de un niño: «Es casi como criar a un niño, pero uno que es como un super geniocomo un niño con inteligencia divina, y es importante cómo se cría al niño. «Una de las cosas que creo que es increíblemente importante para la seguridad de la IA es tener el máximo tipo de IA curiosa y que busque la verdad».
A pesar de sus repetidas críticas a esta nueva tecnología, que pidió regulación en varias ocasiones, Elon Musk nunca reveló cómo realizó los cálculos. Sin embargo, todo indica que habría utilizado un variable llamada P(perdición) que, a diferencia de la matemática clásica, no requiere ningún método de investigación específico.
Cómo determinar el peligro real de la inteligencia artificial
La fórmula comenzó como una broma en foros de tecnología para describir la probabilidad de que la IA destruya a la humanidad. Esta variable informal y sin base científica busca explicar Si hay posibilidades de que la humanidad sea aniquilada para una invención específica.
Por tanto, la variable P(doom) significa oficialmente “probabilidad de fatalidad” y, como su nombre indica, se refiere a las probabilidades de que la inteligencia artificial provoque un escenario apocalíptico.
La escala va de cero a 100.y cuanto mayor sea la puntuación, más convincente será que La IA no sólo está dispuesta a eliminar a la humanidadsi es necesario, pero de hecho logrará cumplir esa tarea.
Debido a su informalidad, es difícil establecer una cifra a partir de la cual la extinción sea casi segura. A pesar de esto, Las predicciones suelen oscilar entre el 5% y el 50%.lo primero es algo probable que la IA acabe con la existencia humana tal como la conocemos, y lo segundo es un riesgo exageradamente alto.
Un gran número de científicos y expertos en la materia han declarado que se trata de una posibilidad real; sin embargo, otros indicaron lo contrario.
Uno de los últimos es Michio Kakuconocido como «el padrino de la IA», quien ha afirmado que la IA está sobrevalorada, especialmente ChatGPT, que para él no es más que un «grabador glorificado».
Hasta ahora, la mayoría de las figuras en el campo de la inteligencia artificial ofrecieron voluntariamente algún tipo de número para brindar cierta tranquilidad a la humanidad.
El cofundador de Ethereum, Vitalik Buterinquien advirtió sobre la amenaza existencial de la IA, es uno de los menos peligrosos: tiene solo el 10%.
El codirector de superalineación de OpenAI, Jan Leike, lo sitúa entre 10 y 90, mientras que el director del Centro para la Seguridad de la IA, Dan Hendrycks, actualizó recientemente su número de 20 a más de 80. Incluso Elon Musk dijo que tiene 20 o 30.
Mientras tanto, una encuesta reciente realizada a ingenieros de IA encontró que su puntuación p(doom) promedio era 40.