Tecnología
Cuidado: la inteligencia artificial ChatGPT podría poner en riesgo su privacidad
Hackeos, robo de información personal o hasta noticias falsas estarían entre los riesgos de esta IA.
Durante este año, sin lugar a dudas, ha habido un tema en tendencia para lo que respecta a la tecnología, el avance de las inteligencias artificiales (IA). Desde el incremento en popularidad de la ya reconocida ChatGPT, no son solo cada vez las personas que la utilizan, sino también las nuevas IA que buscan ofrecer ciertas facilidades para el ser humano.
ChatGPT es capaz de realizar tareas por el ser humano, a través de determinados pasos o instrucciones que sigue de una manera lógica, incluso dando respuestas coherentes a preguntas a través de un lenguaje natural.
Sin embargo, alguno de estos beneficios podrían salir un poco caros, y sin referirse a un factor monetario. En algunas ocasiones, internet se puede convertir en un campo minado de riesgos para la información confidencial y los datos personales.
Para comprender esto es necesario analizar el funcionamiento de ChatGPT, esta IA se alimenta de información presentada por los propios usuarios a través de las conversaciones que entablan con esta tecnología, lo que puede contener información sensible no solo para personas sino también para empresas, equivocación en la que han llegado a caer múltiples personas a pesar de las advertencias, como lo explicó Ueric Melo, Gerente de Ciberseguridad y Privacidad de la empresa Genetec:
Tendencias
“A pesar de la recomendación de OpenAI para que no se comparta información crítica de las empresas y personas en las conversaciones, una investigación de Cyberhaven muestra que el 4,9 % de los empleados usaron información de la empresa en el chat, y el 2,3 % usaron información corporativa confidencial.” expresó Melo.
No es de las primeras alertas que genera esta IA, ya incluso profesores han realizado advertencias al descubrir que cada vez son más los alumnos que, en vez de llevar a cabo sus trabajos, le solicitan a esta tecnología que los realice por ellos.
Esto ha llevado a escenarios posteriores donde incluso algunas personas con cierto nivel de conocimiento informático se aprovechan de las capacidades de esta inteligencia artificial para pedirle consejos a la hora de hackear un sistema, acceder a datos privados de una empresa, o instrucciones para vulnerar redes de seguridad cibernéticas.
No es lo único
A pesar de que lo mencionado ya parece bastante peligroso, no es lo único que debe generar alerta en los usuarios, ChatGPT es capaz de incluso construir noticias falsas a través de ciertos contextos que den paso a desinformación dentro de la sociedad.
Por medio de usos indebidos ya ha sido posible comprobar que ChatGPT es capaz de presentar información, referencias, o hasta hechos históricos que acaban siendo ficticios, pero contados como situaciones factuales por parte de esta IA, en medio de situaciones que son denominadas como “Alucinación de IA”.
Teniendo en cuenta estos hechos, es importante que los usuarios utilicen este servicio tecnológico con responsabilidad y conciencia respecto a los riesgos que se podrían enfrentar, aún más tratándose de un espacio que crece de manera exponencial en cuanto a popularidad, y que solo en enero de este año contó con aproximadamente 100 millones de usuarios, situación ante la cual Melo también realizó un llamado a la sociedad:
“Esta nueva alternativa es una herramienta poderosa y prometedora que puede traer muchos beneficios para diversos sectores; sin embargo, el modelo no es 100 % confiable. Toda información generada por la aplicación debe ser evaluada, verificada, ajustada y validada por un ser humano.” concluyó Ueric Melo.