MUCHO CUIDADO

Los creadores de ChatGPT explican cómo los ciberdelincuentes usan la IA para estafar

OpenAI ya ha detectado y bloqueado redes que hacían un uso fraudulento de ChatGPT y creaban campañas falsas, malware y operaciones de influencia encubiertas.

El auge de herramientas de Inteligencia Artificial como ChatGPT ha cambiado la forma de estudiar o trabajar. Se trata de unas herramientas cada vez más útiles, pero también abiertas para usos fraudulentos.

Así lo explica la empresa OpenAI, que ya ha interrumpido la actividad de cuarenta redes desde febrero del año pasado, redes que abusaban de su modelo de IA para crear campañas fraudulentas, malware y operaciones de influencia encubiertas.

Según la compañía, grupos con actividad en países como China, Rusia, Corea y Camboya utilizaron este chatbot para diseñar software malicioso, estructuras de mando y control. También para automatizar estafas que se difunden en diferentes plataformas, como YouTube o TikTok.

Otros delitos detectados por la compañía están relacionados con la generación de mensajes de phishing y anuncios falsos, estafas en las que muchos ya han caído.

OpenAI también ha averiguado que ChatGPT se usa más para identificar estafas que para crearlas, hasta tres veces más según sus investigaciones, un dato que les sorprende. Aun así, la empresa recuerda que sus políticas prohíben estos usos, aunque los modelos pueden ser manipulados por actores maliciosos.

Es por ello por todo ello por lo que cada vez es más necesario contar con controles técnicos, supervisión y alfabetización digital para minimizar riesgos.

TecnoXplora» Internet