El auge de las herramientas de inteligencia artificial (IA) conversacional o generativa, como Bard de Google y ChatGPT de OpenAI, ha atrajo tanto la apreciación como la controversia.
Estas herramientas pretenden proporcionar respuestas similares a las humanas al acceder a grandes bases de datos de contenido. Sin embargo, los críticos argumentan que este acceso a la base de datos puede dañar la privacidad, la seguridad y los derechos de propiedad intelectual.
Estas herramientas pueden usar la entrada del usuario para personalizar interacciones futuras, almacenando potencialmente preferencias individuales y frases de consulta.
Recientemente, el fundador de VigiTrust, Mathieu Gorge, presentó un trabajo de investigación. Mencionó que entrevistó a 15 directores de seguridad de la información, todos los cuales expresaron su preocupación con respecto a la IA generativa.
Según Mathieu, las preocupaciones más serias involucran filtraciones de IP y confidencialidad. Además, estas herramientas pueden correr el riesgo de crear otras formas de TI en la sombra. Si bien las herramientas de IA generativa procesan datos a través de Internet, nunca detallan dónde almacenan los datos físicamente.
Los expertos en TI también han cuestionado los diferentes términos y condiciones de dichos servicios. Han enfatizado la importancia de revisar dichos términos antes de compartir información personal confidencial con herramientas de inteligencia artificial conversacional.
El comportamiento de estos sistemas varía ampliamente. Mientras que algunos se basan en datos obsoletos, otros buscan y analizan activamente la información disponible.
Políticas de privacidad de datos, limitaciones y preguntas de cumplimiento
Las herramientas de IA generativa suelen implementar políticas de privacidad de datos. ChatGPT de OpenAI, por ejemplo, ofrece a los usuarios opciones para eliminar conversaciones individuales, todos los datos o sus cuentas dentro de un plazo de 30 días. El servicio también supervisa las consultas para evitar abusos.
Por otro lado, Bard de Google recopila conversaciones y comentarios de los usuarios, pero afirma que no accede a la información personal confidencial almacenada en las cuentas de servicio de Google de los usuarios.
Además de las disputas de seguridad, los servicios públicos de chatbot han experimentado cuestiones de cumplimiento asociadas con el Reglamento General de Protección de Datos (GDPR).
Sin embargo, a pesar de estas medidas de seguridad, las herramientas de IA generativa plantean desafíos para las empresas. Ellos confían en datos disponibles públicamente para entrenar sus modelos y carecen de control sobre los datos de entrenamiento en comparación con las soluciones de aprendizaje automático basadas en empresas.
Los expertos de la industria sugieren que los servicios de IA generativa deberían implementar políticas y pautas dedicadas relacionadas con la privacidad de los datos. Deben incluir transparencia sobre el almacenamiento y uso de datos con fines de capacitación y mejora.
Si bien obtener el consentimiento para compartir datos de clientes con sistemas operados internamente es relativamente simple, es un desafío para los chatbots públicos. Esta preocupación ha llevado a la prohibición estatal de ChatGPT, como se vio recientemente en Italia. Del mismo modo, el Reino Unido pospuso el lanzamiento de Bard en el país.
El potencial de la IA generativa ha sido reconocido por numerosos expertos. Los CIO y los directores de datos están intrigados por sus posibilidades. Sin embargo, la tecnología aparentemente necesita un mayor desarrollo antes de que las organizaciones la empleen en su configuración principal. La calidad y consistencia de las respuestas deben ser monitoreadas.
Los creadores de modelos de IA generativa deben ceder el acceso para ajustar y controlar estas herramientas a las empresas para que los modelos puedan alinearse con los requisitos únicos de la empresa.
Lo que es más importante, existe una necesidad destacada de abordar las consideraciones éticas, mitigar los sesgos y garantizar la equidad en la generación de respuestas.
Continuar leyendo: Inquietudes y controversias en torno a las herramientas de IA conversacional