Estamos ante un boom del uso de la Inteligencia Artificial (IA), vimos una fiebre con la creación de nuestras imágenes a partir de una serie de fotografías personales, el impacto fue tal que artistas y hasta políticos crearon sus imágenes con IA.
Lo más reciente es el uso de Chat GPT, el cual es un sistema de chat basado en el modelo de lenguaje por Inteligencia Artificial GPT-3, desarrollado por la empresa OpenAI. Cuenta con más de 175 millones de parámetros, y está entrenado con grandes cantidades de texto para realizar tareas relacionadas con el lenguaje, desde la traducción hasta la generación de texto.
Especialistas comentan que estas soluciones de IA, pueden ser utilizadas en conjunto o en sustitución de los servicios de búsqueda cómo Google o Bing, cuentan con la capacidad para entender las preguntas mediante análisis avanzado de procesamiento de lenguaje y entregando una respuesta basada en un análisis de muchas fuentes de información. Ahora analizando el riesgo de ciberseguridad, todo servicio puede ser un punto de entrada a las organizaciones, el riesgo de terceros se ha elevado notablemente en los últimos años, en los que cibercriminales utilizan a terceros para llegar a sus objetivos.
Estas herramientas están recolectando grandes cantidades de información a una gran velocidad y los aspectos de seguridad tienen que considerarse desde la información que les damos lo que compartimos y que toda esta información podría ser utilizada en nuestra contra.
Las aplicaciones de la IA son bastantes, desde la creación de imágenes, todo un texto, incluso hasta videos, pero ¿hasta dónde el uso de estos sistemas puede ser seguro para los usuarios, incluso para las empresas, en dónde queda la información que les proporcionamos, así como pueden crear textos de utilidad, pueden crear algo que resulte nocivo para una persona, empresa o institución?
A pregunta expresa en Chat GPT esta fue la respuesta:
¿De qué manera los ciberdelincuentes pueden hacer mal uso de Chat GPT?
Los ciberdelincuentes pueden hacer mal uso de Chat GPT de varias maneras, algunas de las cuales incluyen:
Generación de contenido malicioso: Chat GPT es capaz de generar texto de manera autónoma, lo que significa que los ciberdelincuentes pueden usarlo para generar contenido malicioso, como correos electrónicos de phishing o mensajes engañosos en redes sociales, que se parezcan mucho a los mensajes escritos por humanos. Estos mensajes pueden ser utilizados para engañar a las personas y robar información personal o financiera.
Tik Tok: Menores de 18 añadirán un código a la app tras 60 minutos de uso diario
Ataques de ingeniería social: Los ciberdelincuentes también pueden usar Chat GPT para llevar a cabo ataques de ingeniería social. Pueden utilizar el modelo para crear perfiles falsos de redes sociales y hacer que parezcan muy realistas. Luego pueden utilizar estos perfiles para engañar a las personas para que compartan información personal o para persuadirlos a hacer clic en enlaces maliciosos.
Creación de bots maliciosos: Chat GPT también puede ser utilizado para crear bots de chat maliciosos que pueden engañar a las personas para que compartan información personal o financiera. Estos bots pueden utilizarse para difundir spam o para llevar a cabo ataques de phishing.
Para prevenir estos tipos de amenazas, es importante emplear software de seguridad actualizado, evitar hacer clic en enlaces sospechosos o descargar archivos adjuntos de fuentes desconocidas, y estar atento a los mensajes que parecen sospechosos o poco realistas.
Los especialistas de A3Sec mencionan que el uso de IA es una gran oportunidad para mejorar nuestros resultados, pero también podría ser usada para obtener algún beneficio de manera no ética o legal. Su uso inadecuado podría traer riesgos sensibles para la organización.
Siempre existirá la oportunidad de la eficiencia en la implementación de nuevas tecnologías, los ataques ocurren cuando se utiliza con otros fines, otros medios o se aprovecha de su diseño para hacer cosas mal intencionadas o ilegales, por lo tanto, siempre puede existir la oportunidad a un ataque y siempre puede ser utilizado como una herramienta más en la vida de las personas y organizaciones.
La era de la visibilidad: la potencialización de los recursos digitales
Ante esto, las recomendaciones de la compañía especialista en ciberseguridad al utilizar herramientas basadas en IA son:
La mayoría de las soluciones de AI, están en periodo de prueba. Tanto los desarrolladores cómo el público están interactuando y estamos entendiendo sus riesgos, por el momento la idea es emplearlo para sacarle el máximo provecho y para entender qué beneficios nos puede ofrecer esta tecnología.
Por supuesto que muchos lo usarán para sacar partido, la ética en el uso de la tecnología debe tener prioridad. Algunas recomendaciones: no compartir datos reservados o confidenciales, ej. piezas de software.
En este momento muchas plataformas de este estilo son con fines lúdicos o educativos, y debemos tomar en cuenta eso para subir, compartir o manejar información con estas plataformas, ya que existen temas de privacidad, derechos de autor y manejo de las mismas que todavía no está definido.
Dos caras de la misma moneda, el uso de las plataformas basadas en la inteligencia artificial seguirá en desarrollo, como muchas de las cosas que nacen en internet, no están del todo reguladas y lo más seguro es que dicha regulación tarde en concebirse e implementarse, por lo que el saber qué está permitido o prohibido recaerá en los desarrolladores y en los usuarios, por el momento la ciberseguridad personal y empresarial se enfrentarán a un nuevo reto, ¿tú y tu empresa lo tienen contemplado?
Fuente: tynmagazine.com