Inteligencia artificial, nueva diana del cibercrimen

 

LA VOZ DE GOICOECHEA (Por David Salces).-  En apenas una década, la inteligencia artificial ha pasado de ser una promesa abstracta a convertirse en un componente estructural de nuestras vidas digitales. Desde asistentes personales hasta herramientas de productividad, su presencia es ya tan habitual como invisible. Pero cuando una tecnología se convierte en parte del paisaje, también se convierte en objetivo. La sofisticación de los grandes modelos de lenguaje ha abierto una nueva frontera, no solo en capacidad, sino también en vulnerabilidad. Y esa frontera ya está siendo cruzada.

Las principales plataformas de inteligencia artificial en la actualidad, como ChatGPT, Copilot o Gemini, funcionan procesando instrucciones en lenguaje natural. Son motores potentes que comprenden y generan texto, pero también pueden conectarse a servicios, acceder a archivos, ejecutar acciones automatizadas. Esta polivalencia es su mayor fortaleza, pero también su mayor debilidad: no siempre distinguen entre un dato y una orden. Y es ahí donde aparece el problema. Si un atacante logra infiltrar comandos maliciosos en la entrada que recibe el modelo, puede manipular su comportamiento sin que el usuario lo perciba.

Uno de los ataques más inquietantes documentados recientemente es el denominado “promptware”, presentado en Black Hat 2025. En él, investigadores demostraron cómo era posible insertar instrucciones ocultas en archivos vCalendar, que al ser interpretados por asistentes como Gemini, daban lugar a acciones no autorizadas: desde eliminar reuniones hasta modificar el estilo conversacional del bot o sugerir inversiones falsas. Todo esto, a partir de una simple pregunta inofensiva del usuario. La clave está en que el asistente procesa campos invisibles para el usuario, donde se oculta el verdadero comando. La superficie de ataque ya no es el software subyacente, sino el lenguaje mismo.

Otro ejemplo alarmante lo representa el ataque conocido como EchoLeak, dirigido al ecosistema de Microsoft Copilot. Utilizando técnicas de inyección mediante recuperación aumentada (RAG), los atacantes logran introducir comandos dentro de documentos que el modelo accede para responder consultas. Como resultado, el modelo puede revelar información sensible almacenada en sus registros o ejecutar acciones no previstas. Este enfoque, bautizado como “rociado RAG”, expone cómo incluso una herramienta bien entrenada puede actuar de forma maliciosa si se la alimenta con contenido manipulado.



Y la amenaza no se limita al texto. Los ataques multimodales están en expansión. Kaspersky ha señalado cómo los modelos de lenguaje con capacidades de visión pueden ser víctimas de inyecciones visuales: imágenes que incluyen texto oculto mediante codificación de píxeles, imperceptible para el ojo humano, pero reconocible por el sistema. La técnica, similar a los ataques por esteganografía, también puede aplicarse al audio. En asistentes que transcriben voz a texto para su procesamiento, un comando camuflado en una frase aparentemente trivial puede desencadenar una respuesta programada, como enviar información confidencial o alterar configuraciones.

Ante este panorama, los expertos insisten en que no basta con filtrar palabras clave o bloquear ciertos comandos. La solución debe pasar por rediseñar la arquitectura de los sistemas: separar de forma estricta los datos de entrada de los comandos interpretables, aplicar modelos de control de acceso más restrictivos y establecer validaciones independientes del modelo principal. Para los usuarios, la recomendación es clara: evitar compartir datos sensibles a través de herramientas basadas en LLM, verificar las fuentes de los archivos que se consultan y, en el caso de las empresas, exigir transparencia y auditoría de seguridad a sus proveedores de IA.

Trabajar con inteligencia artificial no es ya una cuestión de futuro, sino de presente. Pero como toda herramienta poderosa, requiere precaución. La línea entre innovación y riesgo se estrecha cuando los sistemas automatizados pueden ser manipulados con una frase o una imagen. Y como redactor, no puedo evitar preguntarme si la carrera por hacer más inteligente a la tecnología ha ido más rápido que nuestra capacidad de protegerla. Quizá la verdadera inteligencia esté ahora en saber cuándo —y cómo— poner límites.

*

New2020-  Goicoechea es el cantón número 8 de la provincia de San José, fundado en 1891. Donde orgullosamente decimos: "De la montaña a la ciudad, así se extiende mi cantón". "Goicoechea, Goicoechea, te llevo en el corazón." -

Los comentarios expresados en las secciones de opinión, derechos de respuesta, reclamos del pueblo, campos pagados, negociemos, y en la opinión de los lectores y comentarios de terceros al final de las notas o en las páginas de redes sociales, son responsabilidad exclusiva de sus autores.  La Voz de Goicoechea (www.lavozdegoicoechea.info) es un medio de comunicación independiente, y no toma como suyas dichas opiniones por lo que no se responsabiliza por el contenido emitido por terceros. 
Todas las imágenes que muestra este medio, se utilizan solo con fines ilustrativos, por tanto se respetan todos los derechos de autor según corresponda en cada caso, siendo nuestra principal labor de la informar a nuestros lectores.
 
Porque nuestros seguidores internacionales, nos lo han solicitado. Ahora pueden apoyarnos financieramente, desde cualquier lugar del mundo
 

https://www.paypal.me/LaVozdeGoicoechea

For more information, please write to us at: soporte@lavozdegoicoechea.info

Apóyanos para seguir ejerciendo un periodismo serio e independiente
 
Somos La Voz de Goicoechea
El periódico digital de nuestro querido cantón
Escríbannos a nuestro correo electrónico
 
Y déjanos tus comentarios al final de cada nota que presentamos
nos interesa tú opinión al respecto. Te invitamos a participar...


2017 © 2025

Miembro de la Red de Medios Alternativos Independientes - REDMAI

Producciones Periodísticas y Publicitarias Montezuma

Goicoechea, San José - Costa Rica

Reactions

Publicar un comentario

0 Comentarios