TrueIT LLC (SupportXDR)
West Fargo, Dakota del Norte
Servicios de TI / Seguridad gestionada / Ciberseguridad impulsada por IA
AWS Bedrock AWS Lambda AWS Step Functions Amazon S3 Amazon RDS Amazon SageMaker Claude Sonnet 4.5 Claude Haiku 4.5 Llama 3.3 70B DeepSeek R1 Hugging Face TRL LoRA/QLoRA Python Flask Supabase
TrueIT LLC, la empresa detrás de SupportXDR, una plataforma de ciberseguridad impulsada por IA, necesitaba determinar si los modelos fundacionales de AWS Bedrock podían igualar o superar el rendimiento del GPT de OpenAI para el análisis automatizado de incidentes de seguridad. Atrapada en una costosa dependencia de IA comercial, SupportXDR se asoció con Avahi para diseñar y ejecutar un riguroso marco de benchmarking multimodelo, seguido del ajuste fino de un LLM de seguridad personalizado mediante técnicas LoRA/QLoRA. El resultado fue un marco de evaluación de modelos reproducible y defendible, que abarcó seis modelos de IA y cinco dimensiones de rendimiento, proporcionando a SupportXDR la evidencia validada que necesitaba para acelerar su estrategia de salida al mercado en AWS Marketplace.
TrueIT LLC es una empresa de servicios gestionados de TI y ciberseguridad con sede en West Fargo, Dakota del Norte, reconocida en la lista MSP 500. Su producto insignia, SupportXDR, es una plataforma de operaciones de seguridad impulsada por IA, construida en torno al motor de respuesta a incidentes AgentX IR. Con aproximadamente 35–51 empleados y unos 12 M$ de ingresos, TrueIT LLC presta servicio a clientes empresariales que confían en SupportXDR para automatizar la detección, investigación y respuesta ante amenazas a escala. La empresa opera en la intersección entre los servicios de seguridad gestionada y la IA aplicada, lo que convierte la calidad del modelo, el coste y la fiabilidad en preocupaciones de misión crítica.
La plataforma AgentX IR de SupportXDR se construyó sobre los modelos GPT de OpenAI para impulsar el análisis automatizado de incidentes de ciberseguridad. Aunque era eficaz, esta dependencia conllevaba un conjunto creciente de riesgos: aumento de los costes de la API, control limitado sobre el comportamiento del modelo y ausencia de una vía clara hacia una capacidad de IA propia y optimizada para el dominio. A medida que SupportXDR empezó a posicionarse para AWS Marketplace, mantenerse en una pila de IA comercial de terceros suponía un cuello de botella estratégico.
La pregunta central que la dirección necesitaba responder era sencilla, pero técnicamente exigente: ¿podían los modelos de AWS Bedrock, incluidas opciones de vanguardia como Claude y Llama, rendir con calidad a nivel de GPT en tareas reales de investigación de seguridad y con un coste total menor? Sin una evaluación rigurosa y comparable, cualquier decisión de migración sería una conjetura. Una mala elección de modelo desplegada en producción podría erosionar la precisión, la calidad del razonamiento y la resistencia a las alucinaciones de las que dependen los clientes empresariales de seguridad.
Más allá de la selección del modelo, la ambición a largo plazo de SupportXDR era construir y comercializar un LLM de seguridad ajustado finamente, adaptado a su taxonomía de incidentes y a sus flujos de trabajo de respuesta específicos. Sin resultados validados que demostraran que un modelo personalizado podía superar a alternativas comerciales de propósito general, no existía una vía creíble para convertir esa capacidad en producto ni presentarla como un diferenciador ante compradores empresariales.
Si no se abordaba, SupportXDR seguiría atada a OpenAI con costes crecientes, sin una alternativa validada en AWS y sin una base para construir o comercializar un modelo de IA de seguridad propietario, paralizando por completo su estrategia de salida al mercado en AWS Marketplace.
AWS proporcionó la infraestructura ideal tanto para las fases de benchmarking como de ajuste fino de este proyecto. AWS Bedrock ofrecía acceso directo a un catálogo seleccionado de modelos fundacionales de alto rendimiento —incluidas las familias Claude de Anthropic y Llama de Meta— a través de una única API unificada, eliminando la sobrecarga de gestionar endpoints de modelos dispares. Esto permitió realizar comparaciones consistentes y controladas entre modelos dentro de un único entorno cloud.
Además del acceso a modelos, el ecosistema más amplio de servicios de AWS —Lambda, Step Functions, S3, RDS y SageMaker— permitió a Avahi construir un pipeline totalmente automatizado y escalable de evaluación y ajuste fino sin tener que ensamblar herramientas de terceros. Ejecutar toda la carga de trabajo dentro del propio entorno de AWS de SupportXDR también abordó las preocupaciones de sensibilidad de datos, manteniendo los datos de incidentes de seguridad fuera de infraestructuras de terceros y dentro de un perímetro cloud gobernado y auditable.
Avahi aportó una combinación poco común de profundidad técnica en AWS y experiencia en IA aplicada que les convirtió en el socio adecuado para un proyecto tan especializado. Diseñar un marco de benchmarking de LLM creíble, lo suficientemente riguroso como para respaldar decisiones internas de migración y pruebas externas de cara al cliente, requería más que habilidades de arquitectura cloud. Exigía experiencia en metodología de evaluación, técnicas de ajuste fino y la capacidad de traducir los datos de rendimiento del modelo en una estrategia de negocio accionable.
Lo que distinguió aún más a Avahi fue su capacidad para estructurar el proyecto en dos fases secuenciales, vinculadas metodológicamente y compartiendo el mismo marco de evaluación. Este enfoque permitió una verdadera comparación longitudinal de modelos, una estructura rara vez vista en proyectos con partners, y produjo resultados reproducibles, defendibles y directamente utilizables como evidencia de salida al mercado. El regreso de SupportXDR para un segundo proyecto es un reflejo directo de la confianza que Avahi se ganó en el primero.
Avahi diseñó y ejecutó un programa de evaluación de IA y desarrollo de modelos en dos fases, en el que cada fase se basaba directamente en la anterior.
Avahi entregó un marco de benchmarking reproducible y multidimensional que proporcionó a SupportXDR evidencia defendible y respaldada por datos para apoyar tanto decisiones internas de migración como pruebas externas de cara al cliente. Al validar que un LLM de seguridad ajustado finamente podía competir con y, en dimensiones concretas, superar a modelos fundacionales comerciales, el proyecto eliminó el principal bloqueo técnico y estratégico que se interponía entre SupportXDR y una estrategia de salida al mercado creíble en AWS Marketplace.
La reutilización del marco es uno de sus resultados más duraderos. Dado que la Fase 1 y la Fase 2 compartieron los mismos prompts, escenarios y rúbricas de puntuación, los resultados son directamente comparables a lo largo del tiempo —una capacidad poco habitual en proyectos con partners— que SupportXDR puede seguir aprovechando a medida que los modelos evolucionen y su plataforma escale.
Resultados destacados:
Exploremos juntos sus oportunidades de IA de alto impacto en una sesión gratuita