LA VOZ DE GOICOECHEA (Por Alberto Payo).- Investigadores de seguridad han hallado tres métodos de hackeo indirecto que transformaban a la IA de Mountain View en cómplice de los ciberdelincuentes.
Google ha parcheado varias vulnerabilidades críticas en su modelo de inteligencia artificial Gemini que podían ser explotadas por atacantes para robar información sensible o engañar a los usuarios. Los fallos fueron descubiertos por la firma de ciberseguridad Tenable, que los bautizó como 'The Gemini Trifecta'.
En este caso, los investigadores demostraron que era posible 'envenenar' distintos puntos de interacción con Gemini. El primero tenía que ver con los registros de actividad (logs) en Google Cloud. Un ciberdelincuente podía provocar que solicitudes maliciosas quedaran registradas allí y, posteriormente, al pedir a Gemini que analizara esos logs, el sistema interpretara las instrucciones escondidas, llegando a mostrar enlaces de phishing o a exponer datos internos.
El segundo vector de ataque se relacionaba con la personalización de búsquedas. Gemini utiliza el historial del usuario para ofrecer resultados adaptados. Los investigadores vieron que, si un atacante lograba manipular ese historial, el modelo podía acabar obedeciendo comandos maliciosos incrustados en él. En la práctica, el historial se convertía en un vehículo de ataque.
El tercer escenario afectaba a la herramienta de navegación de Gemini, que permite al modelo consultar páginas web o extraer contexto de pestañas abiertas. Mediante esta función, los investigadores comprobaron que era posible inducir a Gemini a recoger información sensible y enviarla a un servidor controlado por el atacante. En otras palabras, la propia capacidad de Gemini para interactuar con la web podía transformarse en un canal de exfiltración de datos.
¿Problemas resueltos?
Google ha confirmado que ya ha desplegado parches para corregir los tres problemas y ha reforzado las funciones implicadas. La compañía subraya que, gracias a la notificación responsable de Tenable, se pudo actuar con rapidez antes de que se detectaran ataques reales aprovechando estas técnicas.
El hallazgo pone de manifiesto una nueva frontera en la ciberseguridad: los modelos de inteligencia artificial no solo pueden ser víctimas de ataques directos, sino también de manipulaciones indirectas, donde instrucciones ocultas en lugares aparentemente inocuos terminan convirtiéndose en puertas de entrada para los delincuentes.
En este caso, los investigadores demostraron que era posible 'envenenar' distintos puntos de interacción con Gemini. El primero tenía que ver con los registros de actividad (logs) en Google Cloud. Un ciberdelincuente podía provocar que solicitudes maliciosas quedaran registradas allí y, posteriormente, al pedir a Gemini que analizara esos logs, el sistema interpretara las instrucciones escondidas, llegando a mostrar enlaces de phishing o a exponer datos internos.
El segundo vector de ataque se relacionaba con la personalización de búsquedas. Gemini utiliza el historial del usuario para ofrecer resultados adaptados. Los investigadores vieron que, si un atacante lograba manipular ese historial, el modelo podía acabar obedeciendo comandos maliciosos incrustados en él. En la práctica, el historial se convertía en un vehículo de ataque.
El tercer escenario afectaba a la herramienta de navegación de Gemini, que permite al modelo consultar páginas web o extraer contexto de pestañas abiertas. Mediante esta función, los investigadores comprobaron que era posible inducir a Gemini a recoger información sensible y enviarla a un servidor controlado por el atacante. En otras palabras, la propia capacidad de Gemini para interactuar con la web podía transformarse en un canal de exfiltración de datos.
¿Problemas resueltos?
Google ha confirmado que ya ha desplegado parches para corregir los tres problemas y ha reforzado las funciones implicadas. La compañía subraya que, gracias a la notificación responsable de Tenable, se pudo actuar con rapidez antes de que se detectaran ataques reales aprovechando estas técnicas.
El hallazgo pone de manifiesto una nueva frontera en la ciberseguridad: los modelos de inteligencia artificial no solo pueden ser víctimas de ataques directos, sino también de manipulaciones indirectas, donde instrucciones ocultas en lugares aparentemente inocuos terminan convirtiéndose en puertas de entrada para los delincuentes.
*
Los comentarios expresados en las secciones de opinión, derechos de respuesta, reclamos del pueblo, campos pagados, negociemos, y en la opinión de los lectores y comentarios de terceros al final de las notas o en las páginas de redes sociales, son responsabilidad exclusiva de sus autores. La Voz de Goicoechea (www.lavozdegoicoechea.info) es un medio de comunicación independiente, y no toma como suyas dichas opiniones por lo que no se responsabiliza por el contenido emitido por terceros. Todas las imágenes que muestra este medio, se utilizan solo con fines ilustrativos, por tanto se respetan todos los derechos de autor según corresponda en cada caso, siendo nuestra principal labor de la informar a nuestros lectores.
Porque nuestros seguidores internacionales, nos lo han solicitado. Ahora
pueden apoyarnos financieramente, desde cualquier lugar del mundo
Support us financially to continue practising serious
and independent journalism – your help allows us to carry on.
For more information, please write to us at:
soporte@lavozdegoicoechea.info
Somos La Voz de Goicoechea
El periódico digital de nuestro querido cantón
Escríbannos a nuestro correo electrónico
Y déjanos tus comentarios al final de cada nota que presentamos
nos interesa tú opinión al respecto. Te invitamos a participar...
nos interesa tú opinión al respecto. Te invitamos a participar...
2017 © 2025
Miembro de la Red de Medios Alternativos Independientes - REDMAI
Producciones Periodísticas y Publicitarias Montezuma
Goicoechea, San José - Costa Rica
0 Comentarios
Queremos ver tus comentarios, estos nos enriquecen y ayudan a mejorar nuestras publicaciones :
_______________________________________________