La esencia
-
Las conversaciones de IA son datos de entrenamiento por defecto.
La mayoría de las principales plataformas de IA utilizan automáticamente las interacciones del usuario para mejorar sus modelos, a menos que la configuración se desactive manualmente. -
Los controles de privacidad a menudo están ocultos en la configuración.
Los usuarios deben optar activamente por no participar en la recopilación de datos en herramientas como ChatGPT, Claude y Gemini si quieren evitar que sus indicaciones y conversaciones se utilicen para la capacitación de modelos. -
La gobernanza de la IA ahora afecta la confianza del cliente.
A medida que los empleados y clientes dependen más de la IA generativa, las organizaciones deben comprender cómo fluyen los datos confidenciales a través de estos sistemas y establecer políticas claras para un uso seguro.
Nota del editor: Para los líderes en experiencia del cliente, este artículo es un recordatorio de que la confianza está determinada no solo por las experiencias que diseñan las marcas, sino también por las herramientas en las que los empleados y los clientes confían cada vez más cada día. A medida que la IA generativa se integra cada vez más en los flujos de trabajo digitales, de marketing y de servicios, los líderes deben comprender las ventajas y desventajas de la privacidad que se esconden detrás de las configuraciones predeterminadas y reconocer que la gobernanza, la transparencia y la administración de datos ahora desempeñan un papel directo en la protección de la confianza del cliente.
A principios de este mes, me sorprendió saber que los principales laboratorios de inteligencia artificial del mundo se han dado rienda suelta para entrenar nuestras conversaciones. Desde entonces, solucioné el problema de mi cuenta y es posible que usted también desee hacerlo.
Tabla de contenido
Lo que los laboratorios de IA realmente recopilan de forma predeterminada
Amazon, Anthropic, Google, OpenAI, Meta y Microsoft han creado configuraciones predeterminadas que les permiten entrenar en cualquier cosa que ingreses en la ventana del chatbot, desde registros médicos hasta confesiones sinceras. A menos que desactives la configuración, les has otorgado el derecho de acceder a todas tus interacciones de IA.
Vaya, ¿verdad?
Por qué los líderes en experiencia del cliente deberían prestar atención
Si utilizas principalmente los bots para trabajos rudimentarios, probablemente esté bien. Pero si ingresa información financiera, médica u otra información personal (soy culpable de todo lo anterior), entonces es menos aconsejable. Por no hablar de los datos de los clientes.
«Estás habilitado de forma predeterminada», me dijo la Dra. Jennifer King, becaria de políticas de privacidad y datos del Instituto de Inteligencia Artificial Centrada en el Humano de Stanford. «Están recopilando todas sus conversaciones».
El Dr. King es el autor principal de un artículo viral que examinó los procesos de recopilación de datos de estas empresas el año pasado. El documento, llamado «Privacidad del usuario y modelos de lenguaje amplio», destaca un problema de privacidad que sólo se volverá más urgente a medida que la gente confíe en chatbots cada vez más capaces con documentos más confidenciales.
Y dado que estos equipos de investigación de IA habían agotado casi todos los datos disponibles en Internet (y en otros lugares), los nuevos datos que llegan a través de nuestras conversaciones con los chatbots son particularmente valiosos. «Es muy valioso», dijo King. «La investigación actual muestra que si continúas reentrenándote en contenido generado por IA, terminarás con el colapso del modelo».
Los creadores de modelos de IA instalan barreras de seguridad para garantizar que los chatbots no escupan información personal. Y muchos eliminan la información de identificación de los conjuntos de entrenamiento. Pero con la cantidad de datos involucrados, es un proceso arriesgado en el que confiar.
Artículo relacionado: Transparencia y ética de la IA: generar confianza en los clientes en los sistemas de IA
Cómo darse de baja de los LLM y la capacitación sobre datos privados
La configuración de los chatbots es algo difícil de encontrar y discernir. Entonces, con el espíritu de divulgación completa, lo expondré aquí, al menos para ChatGPT, Claude y Gemini:
ChatGPT
Dentro de la sección Controles de datos en la configuración de ChatGPT, «Mejorar el modelo para todos» habilita tus conversaciones para capacitación. Desactívelo y la empresa ya no tendrá su permiso para entrenar en sus chats.
claudio
Dentro de la sección Privacidad de Claude, la configuración «Ayuda a mejorar Claude» se puede desactivar para eliminar tus conversaciones de la capacitación.
Géminis
Y para Géminis, dirígete a la sección Actividad dentro de la configuración y desactívala para evitar el entrenamiento:
El lenguaje blando de exclusión voluntaria está «oscureciendo lo que realmente están haciendo al apelar a su bien social, esencialmente», dijo el Dr. King. «Lo plantea como una compensación: empeorarás la situación si no cumples».
Ahora al menos tienes la información. Haz con ello lo que quieras.
Descubra cómo puede unirse a nuestra comunidad de colaboradores.
El mundo de la tecnología está en constante evolución y cada vez más nos vemos rodeados de inteligencia artificial. En este sentido, es fundamental comprender cómo esta tecnología impacta en nuestra privacidad y confianza como usuarios.
**La importancia de la privacidad en la era de la IA**
La inteligencia artificial recopila datos de nuestras interacciones de forma predeterminada. La mayoría de las plataformas de IA utilizan automáticamente estas interacciones para mejorar sus modelos, a menos que el usuario desactive manualmente esta configuración. Es crucial que los usuarios estén al tanto de cómo se utilizan sus datos y tengan la opción de controlarlos.
**Controles de privacidad y transparencia**
A menudo, los controles de privacidad están ocultos en la configuración de las herramientas de IA. Es responsabilidad de los usuarios optar por no participar en la recopilación de datos en plataformas como ChatGPT, Claude y Gemini si desean proteger la privacidad de sus conversaciones. La transparencia en el uso de datos es esencial para construir una relación de confianza con los clientes.
**Gobernanza de la IA y confianza del cliente**
En la actualidad, la gobernanza de la inteligencia artificial juega un papel fundamental en la confianza del cliente. A medida que empleados y clientes dependen cada vez más de la IA generativa, las organizaciones deben comprender cómo fluye la información sensible a través de estos sistemas y establecer políticas claras para su uso seguro. La confianza del cliente se ve directamente afectada por la forma en que se gestionan y protegen los datos en entornos impulsados por la IA.
En resumen, la privacidad, transparencia y gobernanza de la inteligencia artificial son aspectos cruciales para mantener la confianza del cliente en un mundo digitalizado. Es fundamental que las organizaciones y los usuarios comprendan los riesgos y beneficios de la IA y trabajen juntos para garantizar un uso ético y responsable de esta tecnología en beneficio de todos. ¡Protege tu privacidad y mantén la confianza en la era de la inteligencia artificial! Se recomienda optimizar la siguiente nota para mejorar su claridad y concisión:
«La empresa ha decidido implementar un nuevo sistema de gestión de inventario para mejorar la eficiencia en el almacén. Este sistema permitirá una mayor visibilidad de los productos disponibles, facilitará la realización de pedidos y reducirá los errores en la gestión de inventario. Se espera que esta actualización traiga beneficios significativos para la empresa en términos de ahorro de tiempo y costos.»
Nota optimizada:
«La empresa implementará un nuevo sistema de gestión de inventario para mejorar la eficiencia en el almacén. Este sistema ofrecerá mayor visibilidad de productos, facilitará pedidos y reducirá errores. Se anticipan beneficios significativos en ahorro de tiempo y costos.»







