La decisión que separa una IA que mueve la cuenta de resultados de otra que se queda en piloto
La pregunta que más nos llega en reuniones de comité no es técnica. Es de reparto de responsabilidad. ¿La IA la lidera IT, operaciones, marketing o dirección general? La respuesta corta es que la IA empresarial es una decisión del comité de dirección. IT la implementa. Pero quién decide qué se automatiza, sobre qué datos, con qué riesgo y con qué métrica de retirada, no puede ser el departamento técnico. Cuando lo es, el proyecto rara vez sale del piloto.
Las empresas que tratan la IA como si fuera un nuevo CRM o un ERP repiten un error de categoría. Un ERP es software. La IA es una forma de decidir. Cambia procesos, cambia puestos, cambia dónde se equivoca la compañía y cambia quién responde cuando el algoritmo toma una mala decisión frente a un cliente. Eso no se delega a IT igual que no se delega la política comercial al proveedor del email.
Lo que muestran los datos: el 84% de los proyectos no llega a producción
RAND Corporation publicó en 2024 un análisis sobre fracasos de IA en grandes organizaciones. El hallazgo central es contundente: alrededor del 84% de los proyectos no llega a producción. Lo que más sorprende del estudio es que, en la mayoría de casos, el modelo funcionaba. Lo que falló fueron las decisiones previas.
MIT Sloan Management Review, en colaboración con Boston Consulting Group, mostró en 2023 que las empresas que integran IA de forma estructurada superan en una media de 15 puntos de ROE a sus competidores directos. No por usar un modelo más grande. Por gobernarlo mejor: tienen comité, tienen métricas, tienen plan de retirada y tienen a un responsable de negocio defendiendo el caso de uso.
McKinsey matiza el dato con una segunda capa: más del 60% de las empresas declara que usa IA generativa en al menos una función, pero menos del 20% reporta impacto medible en cuenta de resultados. La distancia entre adopción declarada y valor capturado es precisamente el vacío que deja un mal gobierno.
Los desastres que no aparecen en las keynotes de IA
El lado oscuro de la IA rara vez se cuenta en la misma conferencia donde se presenta el modelo nuevo. Conviene conocerlo antes de firmar una integración, porque ninguno de estos casos falló por culpa del modelo.
Amazon y el algoritmo de selección que penalizaba a mujeres
Amazon desarrolló un sistema interno para filtrar candidatos. El modelo aprendió del histórico de contrataciones de la compañía, que era mayoritariamente masculino en perfiles técnicos, y replicó el sesgo penalizando currículos con la palabra mujer o con equipos femeninos. El proyecto se descartó sin llegar a producción global. El coste directo fue interno, pero el caso se usa desde entonces como ejemplo en auditorías de cumplimiento.
Zillow Offers y los 500 millones de dólares evaporados
Zillow, la plataforma estadounidense de compraventa de vivienda, delegó en un modelo de IA la fijación de precios de compra directa a propietarios. El algoritmo sobreestimó precios, la compañía terminó con un inventario sobrevalorado y cerró la unidad en 2021 con un impacto de alrededor de 500 millones de dólares y 2.000 empleados despedidos. El modelo estaba bien entrenado para el mercado anterior. Nadie dentro de la dirección vigiló que dejó de funcionar cuando el mercado giró.
Cigna y la denegación masiva de reclamaciones
La aseguradora estadounidense Cigna utilizó un sistema automático que rechazaba miles de reclamaciones en cuestión de segundos sin revisión médica real. La investigación posterior derivó en demanda colectiva y en una crisis reputacional. El modelo no fallaba técnicamente: decidía exactamente lo que se le pidió. El fallo fue de gobierno, porque nadie marcó la línea sobre qué decisiones no pueden tomarse sin un humano de por medio.
Air Canada y el chatbot que inventó una política de reembolso
En 2024 un tribunal canadiense condenó a Air Canada a pagar un reembolso a un cliente porque el chatbot de la compañía le había prometido una política de duelo que no existía en los términos reales. La defensa de la aerolínea intentó argumentar que el bot era una entidad separada. El tribunal respondió que la empresa es responsable de todo lo que dice cualquier interfaz que lleve su marca. El precedente es importante: tu chatbot compromete contractualmente a tu empresa.
OpenAI retirando accesos a partners que construyeron sin control
Varios integradores vieron cómo se les retiraban accesos y cuentas empresariales por uso indebido, fuga de datos o construcción sin red de seguridad sobre APIs ajenas. Cuando la capa de IA es de un tercero, la empresa sigue siendo responsable de cómo la usa. Confiar en que el proveedor vigile por ti es un error de gobierno habitual en proyectos rápidos de agentes.
Las dos capas de gobierno que toda empresa con IA necesita
En la práctica, ninguna empresa sobrevive a la IA con un solo comité. Hacen falta dos capas, con responsabilidades distintas y frecuencia distinta.
Gobierno estratégico: dirección decide dónde entra la IA
El comité de dirección decide sobre qué procesos se aplica IA, qué riesgo se acepta, qué decisiones no pueden automatizarse nunca y qué inversión se hace por unidad de negocio. Se reúne trimestralmente, revisa resultados medibles, aprueba nuevos casos y cierra los que no funcionan. Si la dirección no está en esta capa, la empresa acaba con veinte pilotos y cero productos.
Gobierno operativo: los equipos usan IA cada día con límites claros
Los equipos que usan IA día a día necesitan reglas operativas: qué datos pueden pegar en un modelo, quién revisa una respuesta antes de enviarla a cliente, cómo se registra cada uso, cómo se reporta un error y quién responde cuando algo se envía mal. Esta capa evita filtraciones de información sensible, malas decisiones automáticas y conflictos internos cuando la IA se equivoca frente a un cliente.
La secuencia de nueve pasos que seguimos antes de desplegar IA en producción
Antes de escribir una línea de código recorremos con el equipo directivo del cliente una secuencia que ha reducido drásticamente los fracasos en nuestros despliegues. Estos son los nueve pasos, en el orden exacto en el que se trabajan.
1. Define el problema de negocio antes que la tecnología. No queremos IA para gestionar pedidos. Queremos reducir el tiempo medio de entrega de un pedido de 48 horas a 8. La tecnología llega después.
2. Audita datos y procesos actuales. Sin datos limpios no hay IA útil. Y sin un proceso entendido no hay nada que automatizar, porque primero hay que ordenarlo.
3. Prioriza casos por impacto real en cuenta de resultados. Horas ahorradas, errores reducidos, ingresos recuperados. Si no cabe en una fila de Excel, no es un caso listo.
4. Crea un comité de gobierno con responsables de negocio, no solo técnicos. Dirección general, operaciones, legal, IT. Reuniones trimestrales obligatorias.
5. Diseña métricas de fracaso además de métricas de éxito. No basta con definir cuándo gana el modelo. Hay que definir cuándo se retira.
6. Lanza un piloto acotado en tiempo, alcance y presupuesto. Un proceso, un equipo, un mes. Si a los 30 días no hay datos, hay que cambiar el piloto.
7. Mantén humano en el bucle para decisiones con riesgo legal, reputacional o económico. Esto incluye respuestas a cliente, decisiones médicas, decisiones financieras y cualquier cosa que la empresa no quiera ver mañana en prensa.
8. Audita sesgos y errores trimestralmente. Un modelo que funcionaba hace seis meses puede estar tomando malas decisiones hoy, porque los datos cambian, el mercado cambia y el comportamiento de clientes cambia.
9. Ten un plan de retirada antes de empezar. Si a los 90 días no hay impacto medible, se apaga. Sin ceremonias. Y el presupuesto va al siguiente caso.
Vibe Working: el nuevo modelo de trabajo humano más IA
Microsoft ha popularizado el término Vibe Working para describir cómo están cambiando los flujos de trabajo en empresas que adoptan IA en serio. La idea es que el profesional no hace menos. Hace distinto. Orquesta agentes, valida salidas, corrige contexto, decide qué tarea se delega y cuál se mantiene. El trabajo de las próximas décadas es, en gran parte, coordinar sistemas que no duermen.
En la práctica, esto implica que perfiles que hoy redactan informes, generan propuestas, procesan pedidos o cierran contabilidad van a dedicar buena parte de su jornada a supervisar, afinar y aprobar trabajo producido por IA. Eso no elimina el puesto. Cambia la formación que necesita. Y obliga a dirección a revisar la definición de rol, el plan de carrera y el sistema de incentivos.
EU AI Act: lo que las empresas europeas deben saber antes de agosto de 2026
El Reglamento europeo de Inteligencia Artificial, publicado como regulación 2024/1689, entró en vigor en agosto de 2024. Su aplicación general comienza el 2 de agosto de 2026. Es la primera regulación horizontal de IA del mundo y afecta a cualquier empresa que despliegue sistemas de IA sobre ciudadanos europeos, sin importar dónde esté la sede.
Obliga a clasificar cada sistema por nivel de riesgo (inaceptable, alto, limitado, mínimo), a documentar su uso, a informar a los afectados cuando una decisión automatizada les incumbe y a mantener supervisión humana en decisiones sensibles. Las sanciones llegan a 35 millones de euros o el 7% de la facturación global anual, la cifra que sea mayor. No es opcional. No es un código de buenas prácticas. Es una regulación con capacidad sancionadora comparable al RGPD.
Para una PYME española o latinoamericana con clientes europeos, esto significa empezar ya a inventariar qué IA se usa internamente, quién la contrató, qué datos maneja y cómo se informa al afectado. Dejarlo para el último trimestre de 2026 es asumir multa, retirada de producto o ambas.
Cuándo delegar en IT y cuándo subir la decisión al comité
No todo necesita el mismo nivel de control. Una regla de oro que usamos con clientes: si la IA toma una decisión que afecta a un tercero (cliente, empleado, candidato, paciente, proveedor), la decisión entra en el comité. Si la IA solo ayuda a una persona interna a redactar más rápido o a resumir un documento, basta con la capa operativa.
Esa línea, que parece evidente escrita, es la que separa una empresa que escala IA sin accidentes de otra que termina en un pleito por algo que dijo su chatbot o en una filtración porque alguien pegó un contrato confidencial en un modelo público.
El error más caro: empezar por la tecnología y no por la pregunta de negocio
La mayor parte de los proyectos que vemos fracasar arrancan igual. Alguien ve una demo impresionante, vuelve al comité con entusiasmo y pide a IT que integre esa misma capacidad. Seis meses después hay un piloto que nadie usa, un contrato mensual que nadie cancela y una fatiga interna que retrasa la siguiente iniciativa.
El camino útil es el contrario. Empieza por la pregunta: qué proceso cuesta más de la cuenta, qué decisión se toma mal, qué cuello de botella bloquea la cuenta de resultados este trimestre. Sobre esa pregunta es sobre la que se elige modelo, proveedor, integrador y arquitectura. En ese orden. Y con el comité delante.
Cómo acompañamos este recorrido en Averis
En Averis trabajamos con equipos directivos que ya han decidido usar IA en operaciones reales y quieren pasar del piloto al impacto medible. Empezamos por una auditoría de procesos y datos, priorizamos casos por retorno esperado, montamos el gobierno con el comité del cliente y desplegamos agentes, automatizaciones o software a medida según el caso. El enfoque es el mismo sea la empresa una fábrica metálica en Madrid, una agencia creativa internacional o un operador de ecommerce con venta en media Europa: empezamos por la decisión, no por la herramienta.
Si tu empresa factura por encima de 1 millón de euros, tiene procesos repetitivos que cuestan horas al equipo y un comité dispuesto a llevar el proyecto, el primer paso no es elegir proveedor. Es ordenar la decisión. Este artículo recoge la secuencia que usamos en ese primer paso. Si quieres recorrerla con nosotros, escríbenos. El resto sale del orden, no de la magia.

