En marzo, OpenAI lanzó una nueva versión de su modelo de lenguaje natural, GPT-4, y como cualquier avance tecnológico masivo, presenta un riesgo ante ciberataques: mientras más usuarios haya, mayor será el alcance del atentado. Para entender esta situación, los investigadores de Unit 42, la Unidad de Investigación e Inteligencia de Amenazas de Palo Alto Networks, están monitoreando trending topics, dominios recién registrados y dominios ocupados relacionados con ChatGPT, ya que es una de las aplicaciones de consumo más populares y con mayor crecimiento de la historia, que también está atrayendo la atención de los estafadores.
Esta tecnología es un modelo de Inteligencia Artificial (IA) que se está convirtiendo cada vez más en un activo crucial para las organizaciones que utilizan la automatización para aumentar la productividad y la eficacia de sus procesos. De acuerdo con el seguimiento de Unit 42, entre noviembre de 2022 y principios de abril de 2023, se produjo un aumento del 910% en los registros mensuales de dominios relacionados con ChatGPT. Además, se pudo observar un crecimiento del 17,818% en dominios maliciosos relacionados con registros de seguridad DNS (Domain Name System, por sus siglas en inglés) en este mismo periodo de tiempo.
Los investigadores también descubrieron que era posible detectar hasta 118 intentos diarios de URL maliciosas relacionadas con ChatGPT, capturadas a partir del tráfico visto en el Sistema de Filtrado Avanzado de URL de Palo Alto Networks. “Hemos detectado un número creciente de productos sospechosos que utilizan la API oficial de OpenAI para ChatGPT, por lo que exhortamos a los usuarios mantenerse a la defensiva frente a riesgos de seguridad potenciales”, advirtió Daniela Menéndez, Country Manager de Palo Alto Networks México.
Artificial Inteligence: IA, la socia perfecta para la economía verde
Tendencias de actividad sospechosa relacionada con ChatGPT
Mientras OpenAI iniciaba su rápido ascenso para convertirse en una de las marcas más famosas dentro de la inteligencia artificial, se observaron varios casos de actores de amenazas que registraban y utilizaban dominios fraudulentos en el ciberespacio teniendo “openAI” y “ChatGPT” como nombre de dominio (por ejemplo, openai.us, openai.xyz y chatgpt.jobs). La mayoría de estos dominios no han alojado nada malicioso desde principios de abril de 2023, pero es preocupante que no estén controlados por OpenAI u otras empresas auténticas de gestión de dominios y que estén siempre en el límite de ocasionar daños.
Unit 42 también realizó una investigación de keywords en el tráfico desde el Sistema de Filtrado Avanzado de URL y fue posible identificar dos grandes picos de búsqueda con las palabras “ChatGPT y GPT-4” el día en que OpenAI publicó la API oficial.
Estafas que usan el nombre de Chat GPT como anzuelo
Al realizar la investigación, se observaron varias URL de phishing que intentaban hacerse pasar por sitios web oficiales de OpenAI. Normalmente, los estafadores crean un sitio web falso que imita la apariencia del sitio web oficial de ChatGPT y luego engañan a los usuarios para que descarguen malware con un botón falso de “DESCARGA PARA WINDOWS” o que compartan información confidencial.
A pesar de que OpenAI ofrece a los usuarios una versión gratuita de ChatGPT, los estafadores conducen a las víctimas a sitios web fraudulentos, alegando que deben pagar por estos servicios. Por ejemplo, el sitio web falso de ChatGPT intenta engañar a las víctimas para que faciliten su información confidencial, como datos de tarjetas de crédito y direcciones de correo electrónico, o para el robo de identidad y el fraude financiero.
Los especialistas de Unit 42 también han observado que algunos estafadores se aprovechan de la creciente popularidad de OpenAI para obtener criptomonedas. Se pudo identificar a un estafador que abusaba del logotipo de OpenAI y del nombre de Elon Musk para atraer a las víctimas a un evento fraudulento de distribución de criptodivisas.
Google lanza Bard para competir con ChatGPT y ya está disponible en Perú
Los riesgos de los chatbots imitadores
ChatGPT, al convertirse en una de las aplicaciones más populares de este año, han aparecido en el mercado un número cada vez mayor de aplicaciones de chatbot imitadoras de IA. Algunas de estas aplicaciones ofrecen sus propios modelos de lenguaje, y otras afirman que ofrecen servicios ChatGPT a través de la API pública anunciada el primero de marzo. Sin embargo, el uso de chatbots imitadores puede aumentar los riesgos de seguridad.
Antes de la publicación de la API de ChatGPT, existían varios proyectos de código abierto que permitían a los usuarios conectarse a ChatGPT a través de diversas herramientas de automatización. Dado que ChatGPT no es accesible en determinados países o regiones, los sitios web creados mediante estas herramientas de automatización o API pueden atraer a un número considerable de usuarios de estas zonas.
Fuente: tynmagazine.com