19 febrero, 2026

Agentes de IA y organizaciones AI-native: el nuevo modelo operativo [Podcast Digital Talks by t2ó ONE]

Agentes de IA y organizaciones AI-native: el nuevo modelo operativo

En pleno 2026, la Inteligencia Artificial ha dejado de ser una novedad para convertirse en el tejido conectivo de las organizaciones modernas. Ya no basta con tener modelos que respondan preguntas; la competitividad hoy se mide por la capacidad de integrar sistemas que no solo procesan datos, sino que entienden el entorno, toman decisiones y ejecutan flujos de trabajo completos sin intervención humana constante. Estamos viviendo la transición de la «IA que asiste» a la «IA que actúa«, un cambio de paradigma que está obligando a los directivos de marketing y tecnología a replantearse desde la atención al cliente hasta la creación de productos basados en la escucha activa y profunda de las conversaciones.

Para profundizar en este escenario, en este nuevo episodio de Digital Talks by t2ó ONE nos acompaña Mario Armas, CEO de linkhub.ai y experto en el desarrollo de sistemas agénticos para gigantes como Inditex o Nestlé. Junto a Esther Checa, Mario desgrana por qué este año marca el fin de los experimentos y el inicio de la «agentización» real. A través de su experiencia, analizamos cómo las empresas están integrando trabajadores digitales en sus modelos operativos, transformando lo que antes eran simples chats en potentes unidades de ejecución que razonan, planifican y, lo más importante, aprenden de cada interacción.

A lo largo de esta charla, exploramos la frontera técnica y estratégica que separa a los asistentes virtuales convencionales de los nuevos agentes. Descubriremos por qué conceptos como la «memoria agéntica» y la «observabilidad» son los nuevos pilares para evitar alucinaciones y garantizar que la IA aporte valor real al negocio. Mario nos ofrece una visión privilegiada sobre cómo gestionar la complejidad de estos sistemas en un entorno empresarial donde el talento humano y el agéntico deben colaborar de forma transparente y segura.

¿Qué podrás escuchar en este podcast?

  • Qué diferencia realmente a un chatbot de un agente de Inteligencia Artificial.
  •  Cuáles son las capacidades clave:razonamiento, planificación y reflexión.
  •  Por qué la observabilidad será obligatoria en entornos empresariales.
  •  Los errores más comunes al escalar de una PoC a producción
  •  Cómo diseñar sistemas multiagente sin comprometer latencia ni control.
  •  Qué implica incorporar trabajadores digitales en la estructura organizativa.
  •  Cómo evolucionarán los contact centers y el mercado B2C en los próximos años.
  •  Qué papel jugarán la regulación y la auditoría en el despliegue de agentes.

La Inteligencia Artificial ha dejado de ser una herramienta de consulta para convertirse en un actor ejecutivo dentro de las compañías. Como bien señala Mario Armas, estamos en un «momento bisagra» donde la ventaja competitiva no reside solo en adoptar la tecnología, sino en saber orquestarla bajo un marco de seguridad y propósito claro. El futuro de los negocios no se trata de humanos frente a máquinas, sino de organizaciones capaces de hibridar el talento humano con la precisión incansable de los sistemas agénticos.

¡Te esperamos en Digital Talks by t2ó ONE! Ya tienes el episodio disponible en nuestros canales de Spotify, Apple Podcast, YouTube e iVoox. 🎧

Si te ha gustado y te parece interesante para tu negocio, no dejes de escuchar los demás episodios, ¡aprenderás de/con l@s mejores! 🤓

 

TRANSCRIPCIÓN DEL PODCAST

EC: Soy Esther Checa y hoy vamos a hablar con Mario Armas sobre agentes de inteligencia artificial, los retos para su evolución real y ¿qué nos espera este 2026?

 

EC: Estás escuchando Digital Talks T2ó ONE, un espacio que conecta la experiencia de personas brillantes con la transformación del marketing, la tecnología y la innovación? La teoría la convertimos en acción. Cada episodio es una masterclass que te ayuda a tomar decisiones. Encontrarás conocimiento práctico que marcará la diferencia entre seguir las tendencias y crearlas. Digital Talks T2 One Transformando conocimiento digital en resultados tangibles.

 

EC: Mario es CEO de linkhub.ai, una empresa española dedicada al desarrollo de sistemas agénticos y agentes de inteligencia artificial para grandes empresas como Mango, Inditex o Nestlé. Line Up tiene un foco muy relevante dentro de la observabilidad como pilar fundamental de la agente ización, siendo pionero en el desarrollo de evaluadores de alucinaciones para sus agentes de IA. También Mario, como parte de su labor profesional, es profesor en escuelas de negocio como ISDI y ESADE Business School para sus cursos de estrategia conversacional. Mario, muchísimas gracias por estar una vez más con nosotros y tocar un tema que este 2026 es absolutamente ineludible.

 

M: Nada, un placer estar contigo, como siempre. Pues fenomenal.

 

EC: Oye Mario, vamos a hablar, como comentábamos en la intro de un tema que a finales del 2025 ya empezó a coger velocidad y el 2026 pues es el tema es hablar principalmente de la parte de lo que es el valor que aportan los agentes de inteligencia artificial a las organizaciones. Y aquí me gustaría que también nos ayudases a desagregar o a dar un mayor nivel de granularidad del concepto de agente de inteligencia artificial, porque a veces se mezclan mucho conceptos como chatbot, como agentes cognitivos, como agentes de IA. Todo ahora es un agente de IA y yo creo que es muy interesante para personas que están al frente de equipos de marketing, directores de marketing, responsables de marketing. ¿El que nos contases cuál es la diferencia entre un simple chato, un agente conversacional y un agente de IA, por ejemplo? Si hay diferencias sustanciales.

 

M: Sí, sí. De hecho, suele ser un término que no se termina de entender de alguna forma. Porque yo lo que veo en LinkedIn, con todo el hype que hay alrededor del tema, es que todo el mundo le llama agente de IA a todo. Esto es algo que sí que lo veo, y de hecho la misma gente de OpenAI en uno de los últimos eventos marcó claro como el concepto y la definición de un agente de IA justamente por lo que involucra. No es algo tan complejo y transversal, creo yo en las organizaciones, que es importante tener claro como el concepto No voy a intentar como que se entienda, pero yo diría que lo principal es que un agente de IA tiene la capacidad de razonar. Esta es la. La gran diferencia que ha marcado el mundo agéntico es que los grandes modelos de lenguaje que al final revolucionaron los últimos cuatro años de automatización porque marcaron fundacionalmente una nueva etapa en la automatización. Tú bien lo sabes. Venimos de automatizar usando una tecnología llamada NLP, que tenía una capacidad bastante menor de entendimiento y de hecho, los asistentes virtuales de esa época solían ser bastante tontos si no tenías un proceso muy complejo de entrenamiento y tal, esa barrera la cambió Fundacionalmente los grandes modelos de lenguaje con la IA generativa, que inicialmente no tenían esa capacidad de razonar, pero ya sí que venían con capacidades mucho más potentes de entrenamiento autoaprendido ya venían como entrenadas de casa, por así decirlo, y con esa tecnología se hicieron todos los primeros proyectos de ley. No frontin flojito, sencillos de nadie. ¿Ahora, qué pasa? Hace un año justo lo he visto en septiembre del 2024 que OpenAI lanza un modelo creo que era el cuatro uno o algo así.

 

M: Ya no recuerdo muy bien el nombre. ¿Con capacidades de razonamiento avanzado, no es ahí donde hay un quiebre por completo entre el término de asistente virtual o un chatbot basado en IA generativa con un agente de IA? ¿Ahora, respondiendo a tu pregunta, qué es un agente? Bueno, un agente tiene capacidad de razonar. Segundo, es capaz de entender su entorno a nivel de interacción por voz, interacción por texto, interacción por video es capaz de entender estas interacciones. ¿Es capaz, además de planificar su propio trabajo y de operar de forma autónoma? ¿No? ¿Yo diría que la forma más fácil de explicarlo a un directivo es Oye, los agentes ahora mismo son lo más parecido a un humano, no? Aunque todavía queda mucho para eso, pero es lo más parecido a un humano. Un humano cuando va a trabajar, llega, se sienta, ve cuál es su tarea y en función de su tarea dice Ok, pues entonces razona y dice tengo que hacer esto, esto, esto y esto. No! Ese es el razonamiento de la IA. Cuando usas GPT en una versión de razonamiento, la IA lo primero que hace es descomponer tu query, no tu petición, y dice OK, Esther quiere que haga un análisis exhaustivo de cómo el SEO va a cambiar con la IA. Ta ta ta. Entonces él descompone toda tu petición en función de un razonamiento, Porque de esa petición crea una planificación de cómo va a actuar. ¿No? Entonces tú piensa en un humano. Okay, ya sé lo que me han pedido.

 

M: Mi jefe. Hoy no. ¿Que es hacer todo esto ahora? ¿Cómo lo hago? Bueno, para hacerlo, tengo herramientas que en el mundo agéntico son las Tools. Básicamente lo que antes eran las APIs. Antes tú conectabas asistentes virtuales vía API con los sistemas legados de una empresa. ¿El programa de fidelidad, el saldos y movimientos bancarios, el estado de cuenta eran conexiones complejas por código vía API, donde si alguien cambiaba algo en las APIs de la empresa, se rompía el flujo a no ser que se actualizara, no? ¿Eso ha cambiado, no? La forma como interactúas con herramientas ahora es completamente distinta. Tiene una visión más auténtica, por así llamarlo. Entonces un agente es capaz de tener herramientas para saber cómo resolver la petición o el objetivo. Y yo diría que lo más importante es que planifica el cómo resolverlo. No dice ok, pues voy a hacer primero esto, luego voy a hacer esto, luego voy a hacer esto, luego voy a revisar esto y luego voy a hacer esto. Si este proceso ha ido bien, seguiré con el 6.º. ¿No, Por qué? Porque cuando construyes un agente, le dices que tiene que actuar de esa forma. No. ¿Entonces es capaz de planificar su trabajo? No. Entonces. Razonar, planificar. Y por último, reflexionar sobre si lo ha hecho bien o mal. ¿Es capaz de revisar todo lo que lleva hasta el momento y si siente que algo no estuviera bien o algo no llega a las métricas mínimas necesarias, vuelve al paso anterior para poder hacer toda la planificación nuevamente, no? Entonces esto lo hace completamente diferente a un chatbot o un asistente virtual como los hemos conocido actualmente.

 

EC: De hecho, una de las preguntas que te quería también hacer es Llevas más de diez años en este proceso de conceptualización y desarrollo de chatbots, de agentes virtuales y demás. Y claro, en esa transición, porque efectivamente, como bien comentas, se ha marcado muy bien la diferencia entre lo que es un agente de inteligencia artificial y lo que podría ser un mismo chatbot impulsado por IA generativa. Y aquí me gustaría en este tiempo, qué aprendizajes te llevas de esa etapa, de cómo ha ido evolucionando la tecnología y cómo está siendo el cambio que estamos viendo y su impacto en diseñar esta nueva forma de acceder, de conversar, de procesar la información como son los agentes de inteligencia artificial.

 

M: Si el cambio ha sido tremendo, realmente el cambio ha sido tremendo y creo que por eso ha tenido el impacto que tiene en el mundo Enterprise y en general en nuestras vidas. ¿No? Porque ya no hablamos que únicamente el mundo Enterprise puede usar IA de este nivel. El mundo B2C ahora mismo está lleno de herramientas de IA que le están cambiando la vida a la gente y que están cambiando por completo la forma de trabajar y las empresas como las conocemos. Yo llevo un largo debate con mis socios de cómo se van a llamar las empresas del futuro. ¿O sea, ahora mismo las empresas están compuestas por humanos y esto es el enfoque tradicional que conocemos del significado de una empresa, no? ¿Pero cómo le vamos a llamar a una empresa en donde el 60% sean agentes de IA y el 40 sean humanos? ¿No? ¿O una empresa donde el 90% sean agentes de IA y el 10% sean humanos, no? Entonces el cambio ha sido tremendo, la verdad. Y sobre todo cuando lo has visto, cuando has estado en esa época anterior al mundo o al mundo, grandes modelos de lenguaje. No podría hablarte de de muchísimas cosas. O sea. Pero lo primero es que los casos de uso que antes eran impensables ahora son fáciles de hacer.

 

M: O sea, esto ya es una locura, Segundo, y esto. Toda mi vida me acordaré de esto. Fue la razón por la que fundamos Line Up. Ángel y yo y Andrés. Y es que nosotros estábamos haciendo un proyecto con una aerolínea basado en NLP y teníamos que entrenar unas 100 preguntas frecuentes. Esto antes Esther era un trabajo de cuatro meses, cinco meses con un resultado decentito, por así decirlo. Ok. Y a nosotros nos habilitaron las APIs de GPT 2,5. ¿Creo que era antes de GPT como producto, antes de que existiera el producto de GPT y lo que hicimos fue probar las APIs, no? Y claro, lo que hicimos para comparar fue construir antes de rake, pero darle al prompt todas las respuestas de ese mundo de preguntas frecuentes que estábamos construyendo y comenzamos a hacer pruebas. Y claro, lo que obtuvimos fue el trabajo de cuatro meses en, no sé, cuatro horas en ese momento, porque también estábamos un poco descubriendo lo que era el mundo. ¿Promethium Recuerda que te hablo antes de que todo esto se masifique ahí todavía no podías ver cómo iban las alucinaciones, qué tan bueno era el output? No, no, no existía nada de eso.

 

M: Ni siquiera existía RAC, No de cómo las grandes empresas iban a beneficiarse de esto, pero de una dejó clarísimo que un modelo que ya viniera entrenado con la información mundial era mucho mejor. ¿A que tu tengas un modelo bebé al que le tengas que enseñar desde el hola hasta el saludo hasta la bienvenida y todo, no? ¿Versus un modelo que ya tiene todo eso entrenado y al que tú encierras con la información de tu negocio para que solo hable de tu negocio, no? ¿Entonces el cambio ha sido tremendo, no? El cambio ha sido tremendo. Diría yo que la evolución luego ha sido el mundo. Rac Luego entramos nosotros. ¿Al menos entramos súper fuerte con los evaluadores de Alucinaciones y observabilidad, porque vimos que ahí había un gap y un miedo importante para las empresas a la hora de adoptar todo esto, no? ¿Esta era la época de hace dos años, de muchas pocs, de muchas betas y luego con los modelos de razonamiento y a gente que hay ya esto se ha disparado, por así decirlo, no? ¿Porque las posibilidades ahora son tremendas, no? ¿Y ahora lo que se está construyendo son sistemas auténticos, no? Muchos agentes interactuando en función de algún caso de uso.

 

EC: De cara a entrar un poquito más en detalle a feas, una reflexión, una referencia antes sobre los elementos que diferencian un chatbot normal y corriente y lo que ya un agente de IA dadas tres referencias. Pero a mí me gustaría que nos dijeses qué elementos debe tener un agente de inteligencia artificial para que realmente aporte valor a una compañía.

 

M: Esto es buena porque con lo que de por sí tiene un agente de IA. Ok, tienes algo bastante importante, pero creo yo que no aporta valor si no agregas lo que se conoce como la memoria genética. Esto también es un aporte del mundo agéntico como tal. Y creo que sí cambia por completo la forma como los agentes interactúan con los clientes. ¿Por qué? Porque le das memoria real a la gente para poder acceder y conversar contigo desde una visión más natural. No, la memoria genética básicamente lo que hace es gestionar la memoria de corto y largo plazo de la gente. No, él puede guardar recuerdos tuyos como lo hace de hecho ahora. O sea, si ustedes conversan con Pete, verán que él recuerda cosas importantes de la conversación, pero no necesariamente lo guarda todo. De hecho, hay una gestión. Hay un trabajo muy, muy importante de gestionar la memoria. Pero esto es una pieza clave porque te permite abrir la posibilidad de tener conversaciones súper profundas, poder gestionar flujos, lo que antes eran flujos automatizados en NLP, ahora son flujos que tranquilamente la gente de IA es capaz de gestionar. Primero le pido esto, luego le pido esto, luego le pido esto otro y luego termina sucediendo esto. Bueno, es el mismo agente que capaz de gestionar todo esto con el cliente, pero sobre todo porque. ¿Y esto muy enfocado en lo que está pasando ahora en el mundo marketing, incluso las capacidades de conversar ahora son tan altas que las empresas se tendrán que plantear qué hacer con toda esa información, no? Yo creo que ahora ha llegado el momento de crear producto en función de las conversaciones con tus clientes. ¿Yo creo que ahora las empresas están listas para que las áreas de conocimiento de consumidor, por ejemplo, que solo estaban basadas en focus groups o ciertas técnicas de conocer al cliente, ahora tienen una capa profunda para conocer mejor a sus clientes, tomar acciones casi que real-time e incluso construir producto adaptado a esos clientes, no? ¿Entonces esto es algo que creo que va va a suceder y que respondiendo tu pregunta le da ese componente de agente de IA bien hecho, no? Si te tuviera que como que hablar de los componentes diría yo.

 

M: Capa de razonamiento inicial para descomponer bien la query y entender conversaciones profundas o poder hacer casos de uso complejos. Segundo agente break. Mínimo recuperación avanzada. En el mundo de la IA esto se llama retrieve. La recuperación y esto es un básico uno y sobre todo un obligado, porque este es el momento donde vas y la IA recupera solo información de tu marca. No solo va a una fuente segura y confiable a traer info con la que pueda interactuar con el cliente, entonces ese es otro básico indispensable. ¿Tercero, diría yo que una una buena gestión de la planificación de la tarea, no? Junto con las integraciones de Tools. Aquí es donde se abre el mundo de MCP y en tu Agent Capacidades de que las herramientas conversen y ya no solo se unan desde una forma tradicional vía APIs. Tercero observabilidad. Esto es algo que yo creo que ya las marcas se han dado cuenta que es un estándar, o sea, no puedes quizás para una PoC, para una beta te lo puedes permitir, aunque yo creo que no, pero incluso te lo podrías permitir. Pero para proyectos en producción no puedes ir sin observabilidad, sin poder trazar por completo y auditar por completo lo que está haciendo la gente porque piensa que él va a tomar un montón de decisiones.

 

M: Él va a decir Ok, Esther me estaba preguntando que tiene un cargo duplicado en su tarjeta. Esther es un cliente premium en este banco. En las políticas veo que los clientes premium si tienen un cargo duplicado y nunca han tenido un reclamo antes por el mismo tema. Puedo hacerles First Call resolution, Por lo tanto, ni siquiera voy a abrir un ticket para hacer. Se lo voy a resolver y ya está. Él va a tomar todas esas decisiones porque están en las políticas. Entonces, claro, como ese nivel de autonomía existe, tú tienes que tener trazada cada tarea que él hace para que puedas luego auditarla. Entonces, esto es como una cosa que yo creo que este el 2026 es el año de esto. O sea, el año de llevar esto al modelo operativo, dejarnos de epoxi, de betas y de integrar esto al modelo operativo en las organizaciones. Por lo tanto riesgos entrará auditoría, entrará seguridad, entrará y forzarán de alguna forma a que la observabilidad sea muy auditable. ¿Y esto es un tema súper interesante porque al final la gente puede hacer observabilidad de dos formas no observabilidad con IA, que es poner agentes de IA evaluadores que en función de su razonamiento te darán una opinión subjetiva de lo que opinan, de lo que pasó, no? ¿O evaluación más matemática, más científica, no? ¿Esa es la que realmente vale, porque esa No hay duda de que es real o no es binaria, no? Entonces creo que que este es como un poco el camino de este año. ¿No?

 

EC: De hecho, lo acabas de referenciar. ¿O acabas de comentar justo un punto que te iba a preguntar, No? ¿El cuando dejamos de saltar de esa parte de box y de MVPs para ir un poquito más allá y aquí te quería preguntar es qué errores ves que cometen las empresas cuando intentan pasar de un piloto de a gente algo que sea más escalable dentro de la organización? No sé si la palabra es qué errores o qué se debería de tener en cuenta.

 

M: Sí, bueno, hay de las dos y nosotros también nos hemos equivocado y hemos sabido mejorar y aprender. ¿Sabes qué pasa? Que cada tres meses hay algo nuevo que ayuda a que tu proyecto sea mejor. Entonces es una guerra constante de mantener, mantenerte informado e incorporar eso en tus desarrollos y luego incluirlo en el ciclo de de producción. ¿No? ¿Entonces es bien complejo, no? Y te pongo un ejemplo, construir sistemas multiagente, o sea, más de un agente. Tú puedes tener solo un agente de IA, atención al cliente, Agente de preguntas frecuentes. Ok, Solo tienes un agente. No te basta, no necesitas más. Pero puedes también construir un sistema genético de atención al cliente, donde uno hace reclamos, otro hace facturas, otro está haciendo, resolviendo seguimientos de pedido, muchos agentes conectados. ¿Ok, Normalmente un orquestador que es el que les reparte juego, les reparte trabajo, no? Esto, por ejemplo, era un reto complicado. ¿Por qué? Por la latencia. Tú piensa que cada gente al menos se come un segundo o dos en lo que tiene que procesar. Entonces, claro, en ese tipo de proyectos podías de pronto tener siete segundos de latencia para responderle a algún cliente. Y esto contra un cliente final. Pues puede ser mucho. No, para. ¿Qué pasa? ¿Que cada tres meses hay técnicas nuevas para construir esto y aligerar un poco todo el proceso que ocurre dentro, no? Entonces te diría que así de complicado es ahora mismo el mundo argentino, porque está en constante evolución. ¿Y respondiendo a tu pregunta, es qué errores o qué cosas nos hemos encontrado? ¿Bueno, ha pasado de todo, no? Nosotros hemos desde.

 

M: En el mundo RAC hace tres años, desde plantear la recuperación. Esto puede ser un poco técnico, pero es lo más importante del mundo. Rac Trocear mal los documentos para luego dárselos a la IA. Ya sabes, si tú tienes una Biblia de conocimiento de la empresa con la que vamos a hacer un agente de IA, normalmente esa empresa te da la Biblia, no te da como la tiene, tú la normalizas y haces todo un proceso de mejora y de cambio para que la IA lea mejor. ¿Y luego eso lo troceas con el Chunking Strategy se llama en el mundo de la IA para que la recuperación sea la mejor posible, no? Bueno, ahí te diría yo que han estado los primeros errores de las empresas que construimos. Agente Bueno, antes de agentes, no desde el mundo. Raro esto. Pues también. ¿Ahora ya está bastante bien validado, no? Lo segundo, te diría, es no tener evaluadores. Esto es un clásico error de este tipo de proyectos. ¿Por qué? Porque no tienes forma de revisar miles de conversaciones y comparar el output con la Biblia. ¿No, porque no hay humano que se sepa toda la Biblia de una empresa y no hay humano que pueda mirar tantas conversaciones y compararlas y decir ok, esto está bien, esto está bien porque es muy subjetivo, no? Pero sobre todo porque la IA cuando alucina, alucina con tal nivel de precisión que ni lo notas ni lo notas. Entonces esto es otro error para mí que no puedes cometer ahora mismo. Un tercer error diría yo, que es creer que todo es un agente y que alguien venga y te diga Ah, pues Mario, yo quiero hacer seguimiento de pedido, facturas, reclamos, esto, esto y esto Y tú

 

M: Ok, siete agentes. No, no, realmente no. La evaluación es mucho más compleja que esto. ¿No? Hay que analizar la la famosa ventana de contexto. No. Que te diría yo que es justo el siguiente error que se suele cometer. No, no gestionar bien la ventana de contexto. Esto es un arte. O sea, diría yo que esto es de lo. Ahora mismo el perfil más solicitado en el mundo de la IA, no alguien que entienda las profundidades de la ventana de contexto y que sepa cómo gestionarla. Porque en la ventana de contexto entra todo, entra la query, entra una capa del prompt, entra la memoria genética que traes y recuperas cosas que necesitas para esa conversación, el contexto de la Biblia que fuiste y trajiste, el trozo que necesitas o la página que necesitas. Y entran las tools, no las llamadas a las tools y entra la capa de agentes, no, agentes y políticas se van a poner en marcha. ¿Entonces eso es una ventana? ¿No? Esto es como un bloque, así que se trocea. Entonces se podría decir que el el ganador de desarrollar este tipo de proyectos es el que sabe gestionar esa ventana. Porque eso es lo que tú le das a la IA. ¿Y esa ventana, mientras más grande, más degrada la posibilidad de éxito, no? Y mientras más corta. Podrías perderte de más información. Entonces es el arte de el balance perfecto entre lo que le das y lo que necesitas darle.

 

EC: Mario Comentábamos al principio que los agentes de IA pueden ser a día de hoy lo más próximo a lo que puede ser una persona y lógicamente, pues esto puede generar y genera cierto impacto lógicamente en cualquier persona que lo escuche. Y a mí me gustaría conocer un poco tu punto de vista, tu visión de hacia cómo movernos o cómo las organizaciones se pueden mover a ese contexto de organización. Agencial no a una empresa con ese componente agéntico.

 

M: A ver, es es, creo yo, el 2026 las discusiones en los c-levels o en los directorios estarán por aquí. Ahora mismo hay capacidades suficientes para construir empleados de IA. Hay workers tal cual es el concepto. Y claro, esto implica un cambio cultural importante en las empresas. Esto implica un enfoque de gobierno en las organizaciones completamente nuevo, un enfoque de roles y responsabilidades completamente nuevo. ¿Qué accesos le das a este agente? No. ¿Hasta dónde puede llegar y hasta dónde no? No. Ya. Incluso piensa en que si tú. Si tienes más de uno. No. Lo que se prevé en el mundo agéntico es que las organizaciones comiencen a incorporar agentes con una visión de interconectarlos entre ellos para que la gente del C-level pueda hablar con el agente de finanzas que tiene la información de cómo ha ido el trimestre en la empresa y el agente de finanzas le puede habilitar presupuesto al agente de marketing que estará haciendo brief cada semana nuevos para sus campañas y que además le ejecutará a la gente de logística en la de los proveedores con los que ya interactuó y que tienen que facturarse y atención al cliente. Quizás tendrá agentes que le estarán subiendo información a los equipos de marketing y activación de campañas para que Auster, que acaba de reclamar ayer por su tarjeta, no le sueltes una campaña de mailing de la misma tarjeta, por ejemplo. Entonces esto. Esto representa un cambio complejo. Estar complejo por tema governance, tema cultural, tema, roles, responsabilidades, observabilidad. Pero la tecnología ha demostrado estar a la altura, entonces creo que será un año interesante de ver como las organizaciones incluyen en los Active Directory a trabajadores agénticos.

 

EC: Para cerrar Mario, te dejo que imagines y dame tu punto de vista de cómo ves de aquí A23 años. No vamos a poner más tiempo porque más tiempo es inviable, porque lo decías cada, cada mes, cada semana estamos viendo nuevas cosas que puedes incorporar como parte de tus desarrollos. ¿Pero cómo ves de aquí a muy poquito tiempo, dos o tres años, que evolucionará este ecosistema de agentes de inteligencia artificial o el concepto de ecosistema de agentes de inteligencia artificial?

 

M: Yo creo que creo que a partir de este año y el siguiente no, no veremos más bots tontos en el mercado. O sea, se hará una limpia de todos los bots que existían de NLP todavía y muchísimos en contact center. Sobre todo creo que el contact center va a cambiar por completo. O sea, va a haber una refundación de los contact centers como los conocemos. Ahí hay cambios drásticos en la cantidad de personas que normalmente operaba en este tipo de de canales. Luego, creo que en el mundo más B2C nosotros tendremos acceso total, como ya lo estamos teniendo, a agentes más creados para nuestro día a día, para cosas quizás un poco más sencillas, incluso agentes autónomos. Lo habrás visto con con lo que Klout está haciendo. ¿Bueno, pues esto está rompiendo por completo lo que hasta ahora se podía hacer, no? ¿Entonces creo que el mundo B2C también va a explotar de tal forma que se generarán negocios nuevos, no? ¿O sea, ahora el mundo B2C tiene la posibilidad de hacer muchísimo negocio con IA para pequeñas empresas, sobre todo alrededor de la automatización, no? ¿Entonces el mercado está completamente movido, porque ahora alguien que no estaba en la IA de pronto es experta usando Cloud Works o cualquier otra capacidad, y puede generar cierto negocio por ahí no? Y tercero, te diría que todo lo que tiene que ver con el mundo de Enterprise. No. El. El. El que las empresas comiencen a pasar por estos procesos de autenticación. Que incluye, pues, todo lo que he contado antes a nivel de gobierno, de casos de uso, de interconectar agentes, la regulación también. ¿Creo que veremos regulación mucho más estricta ahora y en general me parece que el camino será un poco ese, no? ¿Ahora todo mucho más seguro, no? Creo que también este año será un año muy fuerte en en que las auditorías y la observabilidad sea muy, muy grande para justamente desbloquear el poder transformador de la IA génica.

 

EC: Pues nada, Mario, muchísimas gracias por escucharte y por generosamente transmitir conocimiento que creo que es muy necesario entender ahora todo esto que nos estás contando. Creo que como bien dices, el 2026 va a ser un año que probablemente tenga un punto de inflexión con respecto a lo que veníamos ya escuchando en el 2025. ¿Estamos en un momento bisagra, creo que estamos en un momento bisagra, super importante de cómo transicionamos sobre lo que hemos vivido hasta ahora y cómo entendemos la complejidad de esta nueva oportunidad o reto, no? Que son los agentes de inteligencia artificial. Y bueno, pues seguramente te tengamos que emplazar a otra nueva conversación para entrar un poquito más en detalle sobre casos de uso, que probablemente es parte del reto que tienen muchas veces las organizaciones. No conceptualizar ese caso de uso y entender cuando entra un agente cómo coordinarse con una persona y aplicar pues toda esa parte de límites y de temas de seguridad tan necesarios como estabas mencionando.

 

M: Segurísimo que sí. Estaré encantado de estar como siempre.

 

EC: Pues muchísimas gracias Mario.

 

M: Un abrazo.

 

EC: ¿Has escuchado? ¿Digital Talks T2 One? Gracias por acompañarnos. Puedes seguirnos en nuestras redes sociales. Nos escuchamos en el próximo episodio para seguir conectando personas brillantes con el futuro del marketing. Y recuerda, el conocimiento sin acción es solo información. Toma los aprendizajes de hoy y ponlos en práctica.