Los equipos de desarrollo de aplicaciones están integrando la inferencia de IA en los sistemas de producción que dan soporte a las operaciones comerciales. Las empresas están ampliando los sistemas de gestión de tráfico, control de identidad, observabilidad y enrutamiento para múltiples modelos y entornos de IA.

El informe State of Application Strategy Report 2026 de F5 reveló que el 78 % de las organizaciones gestionan sus propios servicios de inferencia y el 77 % identifica la inferencia como su principal actividad de IA. Además, gestionan o evalúan un promedio de siete modelos de IA.

La inferencia mediante IA es el proceso de utilizar un modelo de IA entrenado para generar respuestas, predicciones o decisiones a partir de nuevos datos.

La inferencia se integra en las operaciones empresariales.

La inferencia de IA se incluye en la misma categoría operativa que otras cargas de trabajo de aplicaciones empresariales. Los equipos realizan inferencias en plataformas de nube pública, centros de datos y infraestructura local, utilizando muchos de los mismos controles vinculados a las operaciones de entrega y seguridad de aplicaciones.

La inferencia de IA multimodelo introduce los mismos desafíos arquitectónicos y de seguridad asociados con las cargas de trabajo de producción distribuidas. Los despliegues de inferencia están creciendo y el control operativo

“La inferencia de IA se está convirtiendo en un elemento central del negocio, lo que significa que la entrega de IA ahora representa un desafío de gestión de tráfico, y la seguridad de la IA, un desafío de gobernanza y control. Las empresas que comprendan este cambio a tiempo serán las que avancen con mayor rapidez y seguridad”, afirmó Kunal Anand , director de producto de F5.

Las nuevas responsabilidades en materia de inferencia están creando nuevos equipos con sus propias herramientas preferidas, y la forma en que las empresas gestionen la complejidad resultante podría influir en los resultados de sus implementaciones de IA .

Las empresas que subestiman las exigencias de infraestructura, la complejidad y los riesgos de seguridad vinculados a la inferencia de IA pueden enfrentarse a mayores costes y dificultades operativas.

La observabilidad entre modelos, los controles centralizados y los sistemas de protección compartidos se están convirtiendo en parte de las operaciones de IA multimodelo en los entornos empresariales.

Las cargas de trabajo de IA se expanden a través de operaciones híbridas multinube.

La mayoría de las empresas operan entornos multinube híbridos que abarcan sus propios centros de datos, instalaciones de coubicación y proveedores de nube pública. Están integrando la inferencia en los sistemas empresariales dentro de estos entornos multinube híbridos.

Las empresas también están modificando sus aplicaciones externas para que interactúen con agentes de IA . Están implementando infraestructuras que reconocen la identidad para enrutar y gestionar el tráfico según la identidad de la máquina o del agente. Algunas están desarrollando API públicas que permiten a los agentes de IA acceder a los datos y funciones de las aplicaciones, mientras que otras están adoptando estándares de datos semánticos y prácticas de enriquecimiento de datos para facilitar la comprensión contextual dentro de los sistemas de IA.

Los sistemas de IA se están integrando en la automatización operativa. La IA ahora participa en funciones de apoyo a la toma de decisiones y en tareas de ejecución operativa vinculadas a entornos de aplicaciones. Las personas siguen supervisando la seguridad de las aplicaciones , el cumplimiento normativo y las decisiones sobre riesgos empresariales en todos los sistemas de la empresa.

Las empresas gestionan la inferencia para múltiples modelos de IA.

Las organizaciones dependen de múltiples modelos, lo que cuestiona la idea de que la inferencia sea un único punto final. En cambio, operan con una cartera de modelos y servicios. Esto refleja que ningún modelo satisface todas las cargas de trabajo, y los equipos continúan evaluando diferentes modelos para distintos casos de uso. Los diferentes modelos presentan distintos costos, interfaces y patrones de fallo bajo carga.

Las empresas seleccionan los modelos de IA en función de los requisitos técnicos y empresariales, que incluyen la optimización de costes, el cumplimiento normativo, la resiliencia, la compatibilidad con la API y las capacidades específicas del modelo.

Las empresas gestionan el tráfico de inferencias en múltiples modelos para garantizar la disponibilidad, preservar las integraciones existentes y controlar los costes operativos.

La transición hacia la IA multimodelos se debe principalmente a las necesidades operativas y comerciales. Los modelos desempeñan funciones operativas vinculadas a los requisitos de carga de trabajo. Algunos están optimizados para tareas generales, mientras que otros están diseñados para cargas de trabajo específicas, eficiencia de costos, rendimiento o precisión.

Las organizaciones gestionan la inferencia en entornos de sistemas distribuidos. Deben determinar qué modelo debe procesar cada solicitud en función de la compatibilidad de la API, la latencia, la disponibilidad, la seguridad, el cumplimiento normativo y el coste.

Los aviones de control se convierten en elementos centrales de las operaciones de IA.

La sistematización de la IA tiene implicaciones directas para la arquitectura organizacional. Cuando las empresas destilan modelos complejos en otros más pequeños, los combinan o los encadenan dinámicamente, la atención se centra en el plano de control que determina a dónde se dirige el tráfico de inferencias, por qué se dirige allí y cómo se protege.

La orquestación de múltiples modelos convierte la inferencia en una carga de trabajo gestionada, sujeta a requisitos de entrega, seguridad, control de costes y resiliencia. El diseño y la gestión de sistemas que rigen el enrutamiento, la limitación, la seguridad y la monitorización del tráfico de inferencia se están convirtiendo en una prioridad arquitectónica fundamental para las empresas que consideran la inferencia como una nueva capa de aplicación.

La entrega de IA y la seguridad convergen en torno a la inferencia.

Las organizaciones están utilizando la IA para mejorar la toma de decisiones y automatizar tareas operativas dentro de límites definidos. Gestionan sistemas, políticas y controles conectados a las cargas de trabajo de inferencia.

Muchas de ellas coordinan múltiples modelos de IA y servicios de inferencia para garantizar la disponibilidad, el cumplimiento normativo y los requisitos operativos. La inversión está aumentando en torno a los controles de entrega y seguridad relacionados con el tráfico de inferencia y su gestión ágil.

Fuente y redacción: helpnetsecurity.com / Anamarija Pogorelec

Compartir