Las tres fronteras que están definiendo el futuro de los modelos de IA empresariales
Michael Gerstenhaber explica que la IA compite en inteligencia, latencia y costo para escalar sin sorpresas.
Calificación
0 / 5 (0 votos)
Fuente: https://images.pexels.com/photos/30530420/pexels-photo-30530420.jpeg?auto=compress&cs=tinysrgb&h=650&w=940
Categoría: Tecnología
Michael Gerstenhaber, vicepresidente de producto en Google Cloud, tiene una posición privilegiada para ver cómo se está usando la inteligencia artificial en empresas reales. Su foco es Vertex AI, la plataforma unificada de Google para desplegar IA en entornos corporativos. Y, en una conversación reciente, dejó una idea que ayuda a ordenar el ruido alrededor de “quién tiene el mejor modelo”: hoy la competencia no empuja una sola frontera, sino tres al mismo tiempo.La primera es la más obvia: la inteligencia “en bruto”. Hay tareas donde lo único que importa es la calidad del resultado, aunque tarde. Gerstenhaber lo ejemplifica con el desarrollo de software: si el objetivo es generar el mejor código posible para mantenerlo, ponerlo en producción y sostenerlo en el tiempo, la prioridad es la precisión y el nivel de razonamiento. En ese escenario, esperar más puede ser aceptable si el resultado final es superior.La segunda frontera es la latencia, el tiempo de respuesta. En atención al cliente, por ejemplo, no basta con “tener razón”; hay un límite práctico: si una respuesta tarda demasiado, el usuario se frustra, cuelga o abandona. Ahí la pregunta cambia: no es “¿cuál es el modelo más inteligente?”, sino “¿cuál es el más inteligente dentro de mi presupuesto de tiempo?”. Más capacidad deja de ser útil si llega tarde.La tercera frontera es menos comentada, pero decisiva cuando se piensa en despliegues masivos: el costo para escalar en condiciones impredecibles. Gerstenhaber describe el caso de plataformas que necesitan moderar volúmenes enormes de contenido. Incluso con presupuestos grandes, el riesgo empresarial aparece cuando no se sabe cuánto crecerá la demanda mañana: cuántas publicaciones problemáticas habrá, cuántos casos se dispararán, cuántas consultas entrarán. En ese mundo, el modelo “ideal” es el más inteligente que puedas pagar… de forma sostenible, a escala y sin que el costo se vuelva inmanejable.Esa mirada también ayuda a entender por qué los sistemas agénticos —la idea de agentes que ejecutan tareas, encadenan pasos y toman acciones— todavía no despegan como prometían las demos. Según Gerstenhaber, la tecnología tiene apenas dos años y falta infraestructura crítica para llevarla a producción: patrones para auditar qué hacen los agentes y patrones para autorizar qué datos pueden usar. En otras palabras, el cuello de botella no es solo el modelo; es la capa de control.En ingeniería de software, dice, el avance fue más rápido porque el proceso ya incluye “barandillas” de seguridad: entornos de desarrollo donde es seguro equivocarse, etapas de prueba y revisiones humanas antes de publicar. En Google, menciona, el código requiere auditorías humanas antes de quedar asociado a la marca y llegar a clientes. Ese tipo de mecanismos reduce el riesgo y acelera la adopción.La apuesta de Gerstenhaber por Google también se explica por un factor estructural: la integración vertical. En su descripción, Google controla desde infraestructura y centros de datos hasta chips, modelos, capa de inferencia, capa agéntica y herramientas como APIs de memoria y escritura de código intercalada, además de un “agent engine” orientado a cumplimiento y gobernanza, y las interfaces de chat con Gemini para empresas y consumidores.El mensaje final es práctico: para que la IA agéntica se vuelva cotidiana en más profesiones, no alcanza con modelos cada vez más capaces. Hay que construir los patrones de auditoría, autorización y gobernanza que permitan confiar en ellos. Y, mientras tanto, la carrera real se juega en tres frentes: inteligencia, velocidad y costo de escalar cuando el mundo —y la demanda— no avisan con anticipación.