En el nuevo libro de Reid Hoffman Superagencia: lo que podría ir bien con nuestro futuro de IA, El cofundador de LinkedIn argumenta que AI puede extender la agencia humana, dándonos más conocimiento, mejores trabajos y vidas mejoradas, en lugar de reducirla.
Eso no significa que esté ignorando los posibles inconvenientes de la tecnología. De hecho, Hoffman (quien escribió el libro con Greg Beato) describe su perspectiva sobre la IA, y de la tecnología de manera más general, como uno se centró en la «toma de riesgos inteligentes» en lugar del optimismo ciego.
«Todos, en general, se centran demasiado en lo que podría salir mal y insuficientemente en lo que podría ir bien», me dijo Hoffman.
Y aunque dijo que apoya la «regulación inteligente», argumentó que un proceso de «despliegue iterativo» que pone las herramientas de IA en manos de todos y luego responde a sus comentarios es aún más importante para garantizar resultados positivos.
«Parte de la razón por la cual los autos pueden ir más rápido hoy que cuando se hicieron por primera vez, es porque … descubrimos un montón de innovaciones diferentes en torno a frenos y airbags y parachoques y cinturones de seguridad», dijo Hoffman. «La innovación no es solo insegura, en realidad conduce a la seguridad».
En nuestra conversación sobre su libro, también discutimos los beneficios que Hoffman (que también es ex miembro de la junta de Operai, actual miembro de la Junta de Microsoft y socio de Greylock) ya está viendo en AI, el impacto climático potencial de la tecnología y la diferencia entre una IA Doomer y un Gleomer de IA.
Esta entrevista ha sido editada por longitud y claridad.
Ya habías escrito otro libro sobre AI, Improvisado. Con Supergencia¿Qué querías decir que no lo habías hecho?
Entonces Improvisado estaba tratando principalmente de demostrar que la IA podía [provide] Amplificación relativamente fácil [of] inteligencia, y lo mostraba y lo contaba en un conjunto de vectores. Supergencia Se trata mucho más de la pregunta sobre cómo, en realidad, nuestra agencia humana se mejora enormemente, no solo por los superpoderes, que obviamente es parte de ella, sino por la transformación de nuestras industrias, nuestras sociedades, como múltiples de nosotros, todos obtenemos estas superpoderes Estas nuevas tecnologías.
El discurso general en torno a estas cosas siempre comienza con un pesimismo pesado y luego se transforma en: llamarlo un nuevo estado elevado de la humanidad y la sociedad. AI es solo la última tecnología disruptiva en esto. Improvisado Realmente no abordé tanto las preocupaciones … de llegar a este futuro más humano.
Se abre dividiendo las diferentes perspectivas de IA en estas categorías: sombreros, doomers, zoomers, flores. Podemos profundizar en cada uno de ellos, pero comenzaremos con un Bloomer ya que ese es el que se clasifica. ¿Qué es un florador y por qué te consideras uno?
Creo que un Bloomer es inherentemente optimista de la tecnología y [believes] que las tecnologías de construcción pueden ser muy, muy buenas para nosotros como individuos, como grupos, como sociedades, como humanidad, pero que [doesn’t mean] Cualquier cosa que puedas construir es genial.
Por lo tanto, debe navegar con la toma de riesgos, pero la toma de riesgos inteligente versus la toma de riesgos ciegos, y que participe en el diálogo y la interacción para dirigir. Es parte de la razón por la que hablamos mucho sobre el despliegue iterativo en el libro, porque la idea es que parte de cómo se involucra en esa conversación con muchos seres humanos es a través de la implementación iterativa. Te estás comprometiendo con eso para dirigirlo para decir: “Oh, si tiene esta forma, es mucho, mucho mejor para todos. Y hace que estos malos casos sean más limitados, tanto en lo frecuentes que son, como también cuánto impacto pueden tener «.
Y cuando hablas de dirección, hay regulación, a la que llegaremos, pero parece que piensas que la mayor promesa radica en este tipo de despliegue iterativo, particularmente a escala. ¿Crees que los beneficios se acaban de incorporar, como en, si ponemos ai en manos de la mayoría de las personas, es inherentemente democrático pequeño? ¿O cree que los productos deben diseñarse de una manera donde las personas puedan tener información?
Bueno, creo que podría depender de los diferentes productos. Pero una de las cosas [we’re] Intentar ilustrar en el libro es decir que solo poder participar y hablar sobre el producto, incluido el uso, no usar, usar de ciertas maneras, eso es en realidad, de hecho, interactuar y ayudar [it]¿bien? Porque las personas que los construyen están mirando esos comentarios. Están mirando: ¿Te involucraste? ¿No te involucraste? Están escuchando a la gente en línea y la prensa y todo lo demás, diciendo: «Oye, esto es genial». O, «Oye, esto realmente apesta». Esa es una gran cantidad de dirección y retroalimentación de muchas personas, separados de lo que obtiene de mis datos que podrían incluirse en la iteración, o que podría votar o de alguna manera expresar comentarios direccionales directos.
Supongo que estoy tratando de profundizar en cómo funcionan estos mecanismos porque, como notas en el libro, particularmente con ChatGPT, se ha vuelto tan increíblemente popular. Entonces, si digo: «Oye, no me gusta esto sobre chatgpt» o «tengo esta objeción y no lo voy a usar», eso será ahogado por tanta gente que lo use .
Parte de esto es que tener cientos de millones de personas participan no significa que responda las objeciones de cada persona. Algunas personas podrían decir: «Ningún auto debería ir más rápido de 20 millas por hora». Bueno, es bueno que pienses eso.
Es ese agregado de [the feedback]. Y en conjunto si, por ejemplo, estás expresando algo que es un desafío o vacilación o un cambio, pero luego otras personas también comienzan a expresar eso, entonces es más probable que se escuche y cambie.
Y parte de esto es, Openai compite con antrópico y viceversa. Están escuchando con bastante atención no solo lo que escuchan ahora, sino … dirigirse hacia cosas valiosas que la gente quiere y también alejarse de cosas desafiantes que la gente no quiere.
Es posible que deseemos aprovechar estas herramientas como consumidores, pero pueden ser potencialmente dañinos en formas que no son necesariamente visibles para mí como consumidor. ¿Es ese proceso de implementación iterativo algo que aborde otras preocupaciones, tal vez preocupaciones sociales, que no están apareciendo para los consumidores individuales?
Bueno, parte de la razón por la que escribí un libro sobre Supergencia es así que la gente realmente [have] El diálogo sobre las preocupaciones sociales también. Por ejemplo, la gente dice: “Bueno, creo que la IA hará que la gente renuncie a su agencia y [give up] Tomar decisiones sobre sus vidas «. Y luego la gente va y juega con Chatgpt y dice: «Bueno, no tengo esa experiencia». Y si muy pocos de nosotros realmente estamos experimentando [that loss of agency]entonces ese es el cuasi argumento contra él, ¿verdad?
También hablas de regulación. Parece que estás abierto a la regulación en algunos contextos, pero te preocupa la regulación potencialmente sofocante innovación. ¿Puedes decir más sobre cómo crees que podría ser la regulación beneficiosa de la IA?
Entonces, hay un par de áreas, porque en realidad soy positivo en la regulación inteligente. Una área es cuando tienes cosas realmente específicas, muy importantes que estás tratando de prevenir: terrorismo, delito cibernético, otros tipos de cosas. Está tratando de evitar, esencialmente, esto realmente malo, pero permitir una amplia gama de otras cosas, para que pueda discutir: ¿Cuáles son las cosas que están suficientemente estrechamente atacadas en esos resultados específicos?
Más allá de eso, hay un capítulo sobre [how] La innovación también es seguridad, porque a medida que innovas, creas nuevas características de seguridad y alineación. Y es importante llegar allí también, porque parte de la razón por la cual los autos pueden ir más rápido hoy que cuando se hicieron por primera vez, es porque vamos: «Oh, descubrimos un montón de innovaciones diferentes en torno a frenos y airbags y parachoques y parachoques y cinturones de seguridad.» La innovación no es solo insegura, en realidad conduce a la seguridad.
Lo que animo a las personas, especialmente en un entorno regulatorio iterativo y en movimiento rápido, es articular cuál es su preocupación específica como algo que puede medir y comenzar a medirlo. Porque entonces, si comienzas a ver que esa medición crece de una manera fuerte o de manera alarmante, podrías decir: «Está bien, exploremos eso y veamos si hay cosas que podemos hacer».
Hay otra distinción que hace, entre los sombríos y los doomeros: los doomers son personas más preocupadas por el riesgo existencial de súper inteligencia, los sombreros están más preocupados por los riesgos a corto plazo en torno a los trabajos, los derechos de autor, cualquier cantidad de cosas. Las partes del libro que he leído parecen estar más centradas en abordar las críticas de los sombríos.
Yo diría que estoy tratando de abordar el libro a dos grupos. Un grupo es cualquiera que esté entre AI Skeptical, que incluye sombreros, a AI Curious.
Y luego, el otro grupo son los tecnólogos e innovadores que dicen: “Mira, parte de lo que realmente importa para las personas es la agencia humana. Entonces, tomemos eso como una lente de diseño en términos de lo que estamos construyendo para el futuro. Y al tomar eso como lente de diseño, también podemos ayudar a construir una tecnología aún mejor que mejore la agencia «.
¿Cuáles son algunos ejemplos actuales o futuros de cómo la IA podría extender la agencia humana en lugar de reducirla?
Parte de lo que el libro estaba tratando de hacer, parte de Supergencia¿Es esa la gente tiende a reducir esto a «¿Qué superpoderes obtengo?» Pero no se dan cuenta de que la superagencia es cuando muchas personas obtienen superpoderes, también me beneficio de ello.
Un ejemplo canónico son los autos. Oh, puedo ir a otros lugares, pero, por cierto, cuando otras personas van a otros lugares, un médico puede venir a su casa cuando no puede irse y hacer una llamada de la casa. Entonces estás recibiendo superagencia, colectivamente, y eso es parte de lo que es valioso ahora hoy.
Creo que ya tenemos, con las herramientas de IA de hoy, un grupo de superpoderes, que pueden incluir habilidades para aprender. No sé si has hecho esto, pero fui y dije: «Explique la mecánica cuántica a un niño de cinco años, a un niño de 12 años, a un niño de 18 años». Puede ser útil en: apuntas la cámara a algo y dices: «¿Qué es eso?» Como, identificar un hongo o identificar un árbol.
Pero entonces, obviamente hay un conjunto completo de tareas de idiomas diferentes. Cuando estoy escribiendo SupergenciaNo soy historiador de tecnología, soy tecnólogo e inventor. Pero mientras investigo y escribo estas cosas, luego digo: «Está bien, ¿qué diría un historiador de tecnología sobre lo que he escrito aquí?»
Cuando hablas de algunos de estos ejemplos en el libro, también dice que cuando obtenemos nuevas tecnologías, a veces las viejas habilidades se caen porque ya no los necesitamos y desarrollamos otras nuevas.
Y en educación, tal vez hace que esta información sea accesible para personas que de otro modo nunca podrían obtenerla. Por otro lado, escucha estos ejemplos de personas que han sido entrenadas y aclimatadas por ChatGPT para aceptar una respuesta de un chatbot, en lugar de profundizar en diferentes fuentes o incluso darse cuenta de que el chatgpt podría estar mal.
Definitivamente es uno de los miedos. Y, por cierto, había temores similares con Google y Search y Wikipedia, no es un diálogo nuevo. Y al igual que cualquiera de esos, el problema es que debe aprender dónde puede confiar en él, dónde debe verificarlo cruzado, cuál es el nivel de verificación cruzada de importancia y todas esas son buenas habilidades para recoger. Sabemos dónde la gente acaba de citar a Wikipedia, o han citado otras cosas que encontraron en Internet, ¿verdad? Y esos son inexactos, y es bueno aprender eso.
Ahora, por cierto, mientras entrenamos a estos agentes para que sean cada vez más útiles, y tengan un mayor grado de precisión, podría tener un agente que revise y dice: «Hola, hay un montón de fuentes que desafían este contenido . ¿Tienes curiosidad por eso? Ese tipo de presentación de información mejora su …
Continuar leyendo: Por qué Reid Hoffman se siente optimista sobre nuestro futuro de IA








