El Peligroso Secreto de la IA: ¿Qué No Debes Decirle Jamás a ChatGPT si Quieres Salvar tu Vida Digital?


 La inteligencia artificial generativa, personificada en herramientas como ChatGPT, se ha consolidado como un aliado formidable para ahorrar tiempo y potenciar la productividad. Sin embargo, los expertos en ciberseguridad lanzan una advertencia contundente y determinante: estas plataformas se nutren de los datos que les proporcionamos. Lo que compartes con un chatbot, por muy inocente que parezca, podría comprometer tu información más sensible y, con ella, tu seguridad digital.

A continuación, se detalla una lista de información crítica que, bajo ninguna circunstancia, deberías revelar a ChatGPT u otros chatbots de IA, a menos que estés dispuesto a asumir las graves consecuencias.


1. Datos Sensibles de la Empresa y Propiedad Intelectual

Compartir información confidencial de tu lugar de trabajo es un riesgo profesional inaceptable. Casos sonados, como el de Samsung, que tuvo que restringir el uso de chatbots por sus empleados tras una fuga de datos, demuestran la seriedad de este peligro. Exponer secretos comerciales, estrategias internas o detalles de proyectos a una IA podría llevarte a un despido fulminante.

De la misma forma, tus creaciones originales y propiedad intelectual no están seguras. Al subir tus obras, como manuscritos o guiones, corres el riesgo de que se conviertan en parte del corpus de entrenamiento del modelo, volviéndose accesibles a otros usuarios. Reconocidos escritores como George R.R. Martin y Elin Hilderbrand ya han acusado a los desarrolladores de estas plataformas de utilizar sus publicaciones para entrenar a sus chatbots, lo que demuestra que ni siquiera los derechos de autor son una barrera infalible.


También le puede interesar: Histórico! Un Robot Humanoide, Xueba 01, Ingresa a un Doctorado en China para Estudiar Drama y Cine


2. Información Financiera y Datos Personales

Aunque es útil pedirle a la IA consejos sobre finanzas personales o asistencia con un presupuesto, nunca debes compartir información financiera confidencial. Ingresar datos como números de cuentas bancarias, detalles de tarjetas de crédito o cualquier tipo de información sensible podría dejarte expuesto a estafadores que utilicen tus datos de forma malintencionada. Adicionalmente, se debe mantener una vigilancia constante ante programas falsos que se hacen pasar por herramientas de IA para robar precisamente este tipo de datos.

De igual manera, abstente de compartir datos personales como tu nombre completo, dirección, número de teléfono o incluso el nombre de tu primera mascota. Los ciberdelincuentes pueden explotar estos datos para la suplantación de identidad, infiltrarse en cuentas privadas o llevar a cabo complejas estafas. Resístete a la tentación de usar el chatbot como tu biógrafo personal.

3. Nombres de Usuario, Contraseñas y el Riesgo de los Chats Privados

La única ubicación segura para tus contraseñas es en la aplicación o sitio web que las requiere, o en un administrador de claves seguro. Al pedirle a ChatGPT que registre tus contraseñas o te sugiera claves, te expones a que esta información sea robada o filtrada públicamente. Los expertos insisten en que guardar datos no cifrados en cualquier lugar que no sea el administrador de claves es una receta para el desastre.

Además, es crucial entender que incluso tus propias conversaciones con el chatbot no son completamente privadas. Ya existen evidencias de que plataformas como Bard de Google han registrado datos de internautas, haciéndolos públicamente accesibles en línea. A pesar de que estas compañías prometen soluciones, este precedente demuestra que la privacidad de tus solicitudes no está garantizada.

Para usar estas herramientas de forma segura, se recomienda desactivar la opción que permite a la IA usar tus datos para su entrenamiento, familiarizarte con las políticas de privacidad de la plataforma y, sobre todo, tratar a estos chatbots como lo harías con un conocido casual, no como un amigo cercano al que le confías tus secretos más profundos.




↓ Sigue más contenido ↓



 
Paperblog