Expertos en ciberseguridad han advertido a los usuarios de que al introducir información y datos personales en asistentes de Inteligencia Artificial (IA) generativa como ChatGPT, estos quedan registrado y puede ser reutilizada para continuar entrenando la aplicación, por lo que implica «perder el control sobre ellos» y enfrentarse a consecuencias de privacidad.
Actualmente, existen diversas tecnologías de IA generativa que los usuarios utilizan de forma habitual para llevar a cabo distintas tareas, tanto en el entorno personal como en el laboral. Por ejemplo, permite realizar una búsqueda precisa de información, redactar textos en distintos formatos, traducir relatos a diversos idiomas, comparar productos y realizar recomendaciones.
Algunas de las herramientas más conocidas en este sector son los asistentes conversacionales ChatGPT, desarrollado por OpenAI, que ha alcanzado más de 100 millones de usuarios semanales activos en menos de un año, y Bard, por parte de Google.
En este sentido, los expertos de la compañía de ciberseguridad Secure&IT han advertido sobre las posibles consecuencias de introducir información y datos personales en las interacciones con este tipo de asistentes, que pueden registrar dichos datos para continuar entrenando la IA y, por tanto, perder el control de sobre la información personal.
Así, tal y como ha explicado la consultora legal TIC de Secure&IT, Natalia Patiño, en un comunicado, para poder utilizar correctamente ChatGPT se ha de tener en cuenta que se trata de una herramienta que «facilita o complementa» la labor humana, pero que, sin embargo, «no la sustituye».
En este marco, ha puntualizado que «no se trata de una herramienta infalible» y que, de cara a evitar riesgos, «su uso debería verificarse siempre». Asimismo, también ha hecho hincapié en que no se trata de una tecnología capaz de razonar, sino que sus respuestas están vinculadas a los datos con los que ha sido entrenada previamente.
APRENDIZAJE POR TRANSFERENCIA
Con todo ello, desde Secure&IT han explicado que ChatGPT funciona utilizando una técnica de aprendizaje a la que se refieren como «aprendizaje por transferencia». Esto es, un entrenamiento basado en un conjunto de datos a gran escala que, a su vez, utiliza los resultados para continuar entrenando al modelo de aprendizaje.
De esta forma, a la hora de interactuar con el ‘chatbot‘, el usuario introduce una petición y, tras ello, el modelo ajusta su respuesta en función de lo solicitado por el usuario y los datos contextuales que haya aportado. Gracias a este sistema, el asistente es capaz de generar respuestas cada vez más precisas y que se asemejan a cómo respondería un humano.
Las herramientas de IA utilizan «todos los datos que los usuarios introducen» y, además, dichos datos quedan registrados y pueden ser reutilizados. Por ello, se ha de pensar en qué información se está compartiendo con el ‘chatbot’, y si dichos datos son personales.
Según Patiño, «la introducción de datos personales y, en general, de información confidencial, implica perder el control sobre esos datos e informaciones». Así, en cuanto a datos personales, se ha referido a toda información relacionada con una persona física «identificada o identificable».
Asimismo, tal y se aconseja, a los usuarios que deben evitar introducir datos directamente identificables, así como los datos que «de forma indirecta puedan llevar a la identificación». «Es muy importante no incluir este tipo de información en las consultas, sobre todo, teniendo en cuenta que actualmente los chats basados en IA son, en general, muy opacos.
CALIDAD DE LAS RESPUESTAS DE CHATGPT Y SESGOS
Desde Secure&IT, también han señalado que la calidad de la respuesta del asistente viene determinada por la calidad del «promt» que introduzca el usuario, es decir, cómo se solicita la acción requerida y qué contexto se ha compartido. Por ello, una entrada adecuada debe ser «clara» e incluir palabras clave que ayuden a la IA a construir la respuesta más adecuada.
Aún con todo ello, se pueden generar respuestas incorrectas o incompletas.
Incluso, se pueden recibir respuestas con «alucinaciones”, ya que el ‘chatbot’ puede ofrecer información aparentemente lógica y convincente, pero en realidad, que sea falsa o inventada.
Otro de los factores a tener en cuenta a la hora de utilizar herramientas de IA como ChatGPT son los distintos tipos de sesgos que pueden esconder las respuestas. Un ejemplo es el sesgo de retroalimentación, que es aquel que se produce cuando, al utilizar la retroalimentación de los usuarios para entrenarse, los sistemas de IA «perpetúan los perjuicios y estereotipos existentes».
Un caso de sesgo de retroalimentación es la discriminación por edad y por género en entornos laborales, ya que ChatGPT puede continuar frenando la contratación de personas mayores de 45 años o señalar sólo perfiles de hombres para puestos directivos «si el modelo de IA para la selección de candidatos aprende información previa ya sesgada».
(c) 2023 Europa Press. Está expresamente prohibida la redistribución y la redifusión de este contenido sin su previo y expreso consentimiento.
Typ Advisers® Noviembre 2023