La inteligencia artificial se ha convertido en una pieza central de la transformación digital. Sin embargo, junto con las oportunidades también aparecen nuevos riesgos de seguridad.
Una de las plataformas más importantes en este ecosistema es Hugging Face, considerada por muchos como el “GitHub de la inteligencia artificial”. Allí, empresas, investigadores y desarrolladores comparten modelos de IA, conjuntos de datos y herramientas listas para usar.
Esta democratización tecnológica ha acelerado la innovación, pero también abrió un nuevo frente para los ataques informáticos: la cadena de suministro de la inteligencia artificial.
Qué es Hugging Face
Hugging Face es una plataforma colaborativa donde se alojan modelos de inteligencia artificial preentrenados, que pueden integrarse rápidamente en aplicaciones empresariales.
Su funcionamiento se basa en tres componentes principales:
- Model Hub
Es el repositorio central donde se almacenan miles de modelos de IA desarrollados por empresas tecnológicas y comunidades de código abierto.
Gracias a esto, una empresa puede utilizar modelos avanzados sin tener que entrenarlos desde cero.
- Biblioteca Transformers
Permite integrar distintos modelos de IA utilizando un mismo marco de programación, facilitando el desarrollo de aplicaciones de lenguaje natural, análisis de texto o generación de imágenes. - Datasets y Spaces
- Datasets: grandes conjuntos de datos para entrenar o mejorar modelos.
- Spaces: entornos donde se pueden probar aplicaciones de IA directamente desde el navegador.
Esta infraestructura ha convertido a Hugging Face en una pieza clave para el desarrollo de soluciones basadas en inteligencia artificial.
Cómo el cibercrimen explota esta plataforma
El problema surge cuando los mismos repositorios abiertos que facilitan la innovación también pueden ser utilizados por atacantes.
Los ciberdelincuentes están explotando la plataforma a través de varios métodos.
Modelos infectados con malware
Uno de los riesgos más importantes es el envenenamiento de modelos.
Un atacante puede subir un modelo aparentemente legítimo que, al descargarse o ejecutarse, contiene código malicioso capaz de tomar control del sistema donde se implementa.
Typosquatting
También se han detectado casos donde los atacantes crean perfiles con nombres casi idénticos a organizaciones reconocidas.
Un simple error tipográfico puede llevar a un desarrollador a descargar un modelo malicioso pensando que proviene de una fuente confiable.
Uso ofensivo de la IA
Los propios modelos disponibles en la plataforma pueden ser utilizados para automatizar ataques, como:
- campañas de phishing hiperpersonalizadas
- generación automática de malware
- creación de contenido falso o deepfakes
Robo de credenciales
Bots automatizados analizan constantemente repositorios en busca de claves API, tokens o contraseñas expuestas accidentalmente por desarrolladores.
Si estas credenciales quedan visibles, los atacantes pueden obtener acceso directo a infraestructuras corporativas.
Incidentes reales que alertaron a la industria
Investigaciones recientes de firmas de seguridad como JFrog y Lasso Security demostraron que el riesgo no es solo teórico.
Entre los casos más relevantes:
- Se detectaron más de 100 modelos con capacidad de ejecutar código malicioso dentro de repositorios públicos.
- Investigaciones revelaron más de 1.500 tokens de acceso expuestos, algunos asociados a organizaciones tecnológicas globales.
Estos incidentes muestran cómo un modelo comprometido puede afectar a miles de aplicaciones que dependen de él.
Cómo usar Hugging Face de forma segura
Las empresas que utilizan inteligencia artificial deben tratar los modelos como software crítico, aplicando controles de seguridad rigurosos.
Algunas medidas clave incluyen:
Usar formatos seguros
La plataforma promueve el formato Safetensors, que evita la ejecución de código dentro de los modelos.
Probar modelos en entornos aislados
Antes de integrar un modelo en producción, debe analizarse en un entorno de pruebas o sandbox.
Verificar integridad de archivos
Comparar el hash del archivo descargado con el original ayuda a evitar manipulaciones.
Proteger credenciales
Las herramientas de secret scanning y DLP ayudan a detectar claves o tokens expuestos en repositorios.
La seguridad de la IA ya es un desafío empresarial
La inteligencia artificial continuará expandiéndose en todos los sectores productivos. Pero a medida que las empresas dependen más de estos sistemas, también deben protegerlos.
Hoy la ciberseguridad no solo debe defender redes y servidores: también debe proteger los algoritmos y modelos que impulsan los sistemas digitales.
En Lockbits ayudamos a organizaciones a identificar vulnerabilidades en su infraestructura tecnológica, evaluar riesgos en la adopción de IA y fortalecer sus estrategias de seguridad digital.
Si tu empresa está integrando inteligencia artificial o quiere evaluar su nivel de protección frente a nuevas amenazas, nuestro equipo puede ayudarte.
👉 Conversemos sobre cómo proteger tu infraestructura digital:
https://lockbits.cl/contacto


