
La creciente adopción de la Inteligencia Artificial (IA) en distintos sectores ha acelerado la necesidad de las compañías de establecer un marco de normas que garantice el uso ético, seguro y transparente de la Inteligencia Artificial. En este contexto, la nueva Ley de IA propuesta por la Unión Europea marca un hito clave en la regulación tecnológica, buscando equilibrar la innovación con la protección de los derechos fundamentales. Esta legislación no solo define los límites y responsabilidades en el desarrollo de sistemas de IA, sino que también plantea implicaciones directas para las estrategias de marketing, la recopilación de datos y la interacción con los consumidores.
Las empresas que utilizan la IA en campañas publicitarias, análisis de comportamiento o personalización de contenidos deberán adaptarse a nuevos criterios de transparencia, trazabilidad y evaluación de riesgos. Esto supone un cambio significativo en la forma en que se diseñan y ejecutan las estrategias comerciales, especialmente en sectores donde el tratamiento automatizado de datos es intensivo.
A su vez, la ley plantea desafíos y oportunidades: por un lado, implica un esfuerzo de adecuación normativa y tecnológica; por otro, ofrece un marco más claro que puede fortalecer la confianza del consumidor y fomentar una competencia más justa. En este nuevo escenario, los profesionales del marketing deberán repensar sus prácticas, incorporando criterios éticos y legales en el uso de herramientas basadas en IA, al tiempo que aprovechan su potencial para ofrecer experiencias más relevantes y responsables.
Además, la regulación cobra especial importancia en un contexto global donde el uso masivo de datos y la automatización de decisiones pueden tener un impacto significativo no solo en los mercados, sino también en la sociedad. Por ello, comprender las claves de esta ley resulta fundamental para construir una estrategia de marketing alineada con los valores que promueve la transformación digital responsable.
En este podcast hablamos con Paula Ortiz, Co-fundadora y CEO de Legal School, para entender cómo la Ley de Inteligencia Artificial deberá formar parte de la operativa de las compañías de cada uno de los Estados miembros.
Ortiz es cofundadora y CEO de Legal School, una escuela de derecho para la era digital que llega para revolucionar la formación legal como abogada, lleva más de dos décadas de experiencia en regulación digital, publicidad y protección de datos, asesorado a la Agencia Española de Protección de Datos, representando a España en foros internacionales y dirigiendo durante una década el área legal e institucional de IAB Spain. También es docente en instituciones como IE, ISDI, Deusto e ICADE. Sus sesiones siempre tienen un enfoque práctico para conectar el derecho con la innovación y los negocios.
Su trayectoria la ha llevado a ser incluida en el ranking de mejores profesores de Derecho Digital entre 2019 y 2023, así como pertenecer a la guía de mujeres líderes del ecosistema empresarial Español.
¿Qué podrás escuchar en este podcast?
- La situación actual de la Ley de Inteligencia Artificial.
- La supervisión de la Ley de IA a través de su Agencia Estatal de Supervisión de IA.
- Las alternativas éticas que se deberían implementar para medir el engagement sin analizar expresiones faciales o tono de voz.
- Las implicaciones de la prohibición de técnicas subliminales en estrategias de neuromarketing.
- Las oportunidades de crear la prohibición de cookies de terceros combinada con la Ley de IA en el desarrollo de modelos de targeting.
¡Te esperamos en Digital Talks by t2ó! Ya tienes el episodio disponible en nuestros canales de Spotify, Apple Podcast, YouTube e iVoox. 🎧
Si te ha gustado y te parece interesante para tu negocio, no dejes de escuchar los demás episodios, ¡aprenderás de/con l@s mejores! 🤓
[Transcripción del Podcast]
EC: Soy Esther Checa y hoy hablaremos con Paula Ortiz para entender cómo la Ley de Inteligencia Artificial Europea deberá formar parte de la operativa de las compañías en cada uno de los Estados miembros.
EC: Paula es cofundadora y CEO de Legal School, una escuela de derecho para la era digital que llega para revolucionar la formación legal como abogada, lleva más de dos décadas de experiencia en regulación digital, publicidad y protección de datos, asesorado a la Agencia Española de Protección de Datos, representando a España en foros internacionales y dirigiendo durante una década el área legal e institucional de IAB Spain.
También es docente en instituciones como IE, ISDI, Deusto e ICADE. Sus sesiones siempre tienen un enfoque práctico para conectar el derecho con la innovación y los negocios.
Su trayectoria la ha llevado a ser incluida en el ranking de mejores profesores de Derecho Digital entre 2019 y 2023, así como pertenecer a la guía de mujeres líderes del ecosistema empresarial Español.
Paula, muchísimas gracias por estar otra vez con nosotros. Va a ser un auténtico lujo volverte a escuchar en este programa. Un placer, como siempre, charlar contigo de estos temas y de muchos otros.
Pues venga, Paula, vamos a empezar. Estuviste con nosotros hace meses y yo creo que estamos en un momento maravilloso para volver a hablar contigo y que nos ayudes a lo que comentábamos, a poner un poco en contexto cómo está Capitalizando toda la parte de la Inteligencia Artificial, sobre todo la regulación de la inteligencia artificial dentro del ámbito dentro del mercado español.
Y me gustaría que nos ayudases a tener una visión un poquito más de contexto para entender en qué punto estamos cuando decimos que la ley de Inteligencia Artificial ya es de obligado cumplimiento.
PO: Si te parece, voy a poner un poquito de la cuestión en contexto.
El reglamento se aprobó en marzo del año pasado. En julio se publicó en el Boletín Oficial de la Unión Europea y en agosto, en pleno verano, entró en vigor, digamos. Muchas veces se confunde la entrada en vigor con el comienzo de aplicación.
Entonces, bueno, en agosto, como te digo, entra en vigor y por el momento no era aplicable ninguno de los requisitos que se van a ir aplicando de manera gradual.
Ante tu pregunta sobre en qué punto estamos, el pasado mes de febrero entraron, comenzaron a ser de aplicación dos temas fundamentales.
En primer lugar, Ias prohibidas, digamos, aquellas que impactan directamente en los derechos fundamentales que iremos desarrollando un poquito. Ahora voy a hacer una breve mención, pero iremos desarrollando.
Y por otro lado, la obligación, lo que llama la normativa de alfabetizar a las empresas, es decir, formarlas en el uso ético y legal, ya estén desplegando o ya estén utilizando formatos de Inteligencia Artificial.
Entonces, bueno, pues algunas de las prohibiciones del artículo cinco que aplican de manera directa o indirecta al sector de la publicidad digital, pues hablan de la manipulación subliminal, cosas que ya se recogían también antes en otras normativas. O tratar de explotar vulnerabilidades de determinados perfiles.
Bueno, luego vamos a ir, me imagino aterrizando en alguno de ellos.
En cuanto al contexto, comentar también que en mayo, por ejemplo, serán exigibles también los códigos de conducta o los códigos de buenas prácticas para los modelos de Inteligencia Artificial de propósito general. Las autoridades competentes comenzarán a poder aplicar estas sanciones que de momento actualmente, como te decía, pues no se puede, no son sancionables digamos en este momento.
EC: Con respecto a esto último qué estás comentando, cómo se está coordinando España o cómo está coordinando España está supervisión de la Ley de Inteligencia Artificial a través de nuestra agencia estatal y sobre todo en este tiempo que llevamos en estos poquitos meses, qué lecciones se han podido extraer de estos primeros meses de aplicación.
PO: Bueno, como lecciones para el sector, tengo que decir quizás que el papel lo aguanta todo. Que la ley lo aguanta todo, pero que lo cierto es que al final el cumplimiento nos hemos dado cuenta de que tiene una gestión documental muy compleja.
Al final, pues hasta ahora, si las empresas se están preparando y la AESA que se aprobó ya estaba en La Coruña casi antes de que estuviera aprobado casi el propio reglamento, pues hasta ahora llevaba un poco labores de concienciación.
Entonces, en cuanto aprendizajes diría que pues la complejidad en el cumplimiento no está, como te decía, esta importante carga documental y bueno, por otro lado, ¿cómo se está coordinando con otras autoridades?
Pues el pasado mes de marzo se aprobó el anteproyecto de Ley de gobernanza y buen uso de la Inteligencia Artificial, en el que se aterrizaban, digamos, o se adaptaban a la normativa española.
Algunas de las cuestiones del reglamento, y entre otros, se establecían cuáles van a ser las autoridades competentes para exigir el cumplimiento.
Entonces, por un lado habla de la propia AESA que digamos que va a tener una supervisión general de la inteligencia artificial de todos los sistemas de alto riesgo de o de o de los prohibidos.
También, pues con todo lo que tiene que ver con estas famosas obligaciones de transparencia, y luego entra también en juego, por ejemplo, la Agencia Española de Protección de Datos, la Agencia Española de Protección de Datos tendrá competencia sobre los sistemas de Inteligencia Artificial que impliquen tratamiento de datos personales.
Por ejemplo con todas las cuestiones de categorización biométrica o por ejemplo, pues está prohibido, la categorización biométrica para determinar la raza o las opiniones políticas, y también todo lo que tiene que ver con gestión de fronteras. Digamos que toda la parte de biometría y gestión de fronteras caería sobre la AEPD.
Luego tenemos también autoridades competentes, como el Banco de España o la CNMV, que ellos van a evaluar todo el tema de solvencia y de calificación crediticia.
Y luego, por ejemplo, la Junta Electoral, que tiene que ver con todo lo que tenga que ver con el uso de la IA para procesos electorales, con lo cual vemos que es un puzle de autoridades competentes a los que también tenemos que sumar algunas autoridades que podrá tener la Comisión Europea, la Junta Electoral y en definitiva, pues todavía está un poco por por ver cómo se coordinan todas ellas para para vigilar el cumplimiento.
EC: Según nos estabas comentando tras esta entrada en vigor en estas primeras fases, ya llevándolo al terreno del ámbito del marketing y la publicidad, ¿a qué retos prácticos nos enfrentamos como industria?
PO: Bueno, pues yo diría que, nuestro sector, el sector del marketing, está siempre sometido a grandes retos que vienen por parte de la normativa de la IA, pero también de otro conjunto de normas que ya conoces bien, Esther, que son la Ley de Servicios Digitales, la Ley de Mercados Digitales y el propio RGPD, que lleva con nosotros también bastantes años.
Si nos ceñimos, aunque es difícil hablar de una sola ley sin hablarlo en conjunto con otras, de cuáles son los retos, pues por ejemplo, si nos vamos a esas prohibiciones que hablábamos anteriormente sobre la manipulación subliminal o la inferencia de emociones, pues al final lo que tenemos que tener en cuenta es que tenemos que ser todavía si cabe, mucho más cuidadosos en el uso de estas técnicas y en el uso de interfaces, pues que en un momento dado puedan confundir o puedan llevar a tomar acciones a los usuarios que están por debajo de su percepción.
Es interesante que el reglamento de IA habla de que no se pueden utilizar estas estas técnicas que sean imperceptibles para las personas y luego un tema interesante o que aún conociéndose no se pueden resistir, es decir, pues a lo mejor esos patrones adictivos de scroll infinito o estas cuestiones.
Por tanto, bueno, tenemos ahí una serie de retos.
Ya te digo que, por otro lado, además del reglamento de IA que no menciona específicamente el tema del marketing, pues también tenemos las obligaciones de transparencia de la Ley de Servicios Digitales, que obligan a ser transparentes con los algoritmos que utilizamos, a ser transparentes con respecto a que estamos ante una publicidad y conforme a qué parámetros se nos están calificando.
Por tanto, al final sería una cuestión de eso, de evitar esas cajas negras o de utilizar técnicas de análisis emocional que estén basados en un consentimiento que esto.
De nuevo te comento que tiene una interrelación muy importante con el RGPD, porque al final el análisis de emociones de diversas características puede estar permitido, es decir, no está prohibido sino que tiene que estar informado y tiene que ser, en todo caso, consentido por los usuarios.
EC: Entrando ya un poquito en cuestiones más de detalle, en lo que nos aplica como industria, a mi me gustaría saber, tras la prohibición del reconocimiento de emociones en los anuncios aquí, ¿qué alternativas éticas crees que se deberían de implementar para medir esa conexión, ese engagement, sin analizar las expresiones faciales o lo que podría ser también el tono de voz?
PO: Pues mira aquí un pequeño matiz. Cuando se habla de la prohibición de reconocimiento de emociones, el reglamento habla del entorno laboral y del entorno educativo. Es decir, por esta situación que puede haber un poco de desigualdad o de influencia tanto en el entorno laboral como educativo.
Se centra un poco en estos dos entornos, pero sin embargo podemos sacar algunas conclusiones para el sector del marketing, y de nuevo está muy relacionado también con el tema del tratamiento de los datos.
Al final analizar expresiones faciales, tonos de voz u otros indicadores biométricos, pues habrá que ver si se consideran invasivas o si o si están relacionadas también con la explotación de determinados grupos vulnerables, ya sea por la edad, por situación económica, en fin, por determinados elementos.
Pero si esto se va a llevar a cabo y se informa al usuario y se pide el consentimiento y se hace para finalidades que el que el usuario puede puede estar consintiendo y es consciente, pues en principio no habría, no habría mayor problema.
Al final el reconocimiento de emociones o este tipo de cuestiones no están prohibidas per se en todas las circunstancias.
Aquí, qué implicaciones crees que tiene la prohibición de técnicas subliminales en estrategias de una disciplina como podría ser el neuromarketing que pues es una disciplina que se apoya también en esta tecnología, en la inteligencia artificial para poder optimizar.
Bueno, pues en primer lugar comentar que este tipo de de usos, o sea lo que es el neuromarketing per se, no estaría prohibido.
No se trata de eliminar esta técnica, sino de hacerlo con transparencia, sino de hacerlo conforme a la normativa.
Entonces va a haber, digamos, como una amplia gama de situaciones en las que una zona gris, digamos, no es blanco o negro.
Una serie de zonas grises donde podemos ver si está permitido o no, no todo aquello que vaya a manipular a las personas o que no sea percibido por las personas o que no se puedan resistir a ese uso, pues ya te digo, a través de vídeos o de sonidos o incluso a través de la optimización de los algoritmos, pues eso ya estaría prohibido, pero siempre que se avise y siempre que el usuario sea consciente y pueda llevar a cabo este consentimiento granular y pues puede ser posible.
Por otro lado, también por ejemplo, puede ser interesante sustituir inferencias emocionales que el usuario no pueda percibir que se están llevando a cabo, pues por métricas conductuales que se pueden observar, como por ejemplo el tiempo que permanece en una página, los clics que hace, la profundidad del scroll.
En definitiva, yo creo que el objetivo al final de todas estas normas es hacer consciente a los usuarios de de que están ante determinadas tecnologías que les pueden, que les pueden impactar y que en fin, que pueden modificar su comportamiento.
Y por otro lado verás que hago mucha insistencia en todo el tema de transparencia y explicabilidad.
Al final yo creo que es importante hacer estos modelos de IA explicables, pues que por ejemplo, los logs documenten qué variables se utilizan para poder tomar estas inferencias y estas cuestiones y de alguna manera eso también nos va a ayudar ante posibles inspecciones de la autoridad competente al respecto.
EC: Otra de las cuestiones que estamos viendo es cómo grandes plataformas de redes sociales, pues ofrecen marcar el contenido como generado con Inteligencia Artificial, y aquí me gustaría ver cómo ves que las marcas en general están gestionando sus campañas de influencers virtuales.
PO: Si este tema me parece apasionante cuando se habla de la ley del reglamento de IA o de la DSA se habla siempre.
Bueno, yo lo comento muchas veces sobre la ley Blade Runner, que al final oculte, no que mejor dicho haga visible que estamos ante ante un robot. Bueno, efectivamente, al final esta tendencia hacia influencers virtuales se encuentra se encuentra plenamente sometida a todas estas normativas.
Por un lado, el reglamento de IA.
Por otro lado, de nuevo el Digital Services del Reglamento de Protección de Datos y también la normativa publicitaria.
Hay muchos casos en los que todo este contenido no se está marcando como publicidad, pero también hay muy buenos ejemplos de gente que lo está haciendo bien. Por ejemplo, la gente de Bella Lion, que tiene esta influencer que se llama Alba Renai. Incluso ella tiene un código ético sobre cómo lo debe utilizar.
Ellos mismos hacen, por ejemplo, reportajes sobre cómo han creado este avatar la presentaron como quien dice, en sociedad e incluso también hablando de cuestiones más allá que del tema de ella.
Y por ejemplo, ellos hicieron un corto sobre la hipersexualización del cuerpo de la mujer en el tema de la IA, con el tema de los de los influencers.
Por tanto, al final es un tema de de hacer que este contenido, pues se entiende que se está ante una Inteligencia Artificial, pues por ejemplo con con carteles de contenido generado por IA O o en las BIOS, pues explicar o dejar claramente Explicado cuál ha sido el proceso de creación de este tipo de avatares.
No obstante, al final se trata de que el usuario medio, como dice la normativa, el usuario medio y razonablemente informado y perspicaz pueda entender que está ante este tipo de contenidos y no todo el mundo tiene esa misma percepción sobre, todo cada vez que mejora más la técnica y que son absolutamente imperceptible.
Por tanto, esas etiquetas de transparencia, son fundamentales en casi te diría, no sé si en cada publicación, pero bueno, de todos modos queda absolutamente claro que se está ante estos, ante estos contenidos.
EC: Muy interesante la parte de de las multas que se pueden llegar a aplicar por el mal uso de esta tecnología. A mí me gustaría que nos contases, sobre todo en un entorno como retail, ¿qué protocolos recomiendas evitar para que se apliquen multas que marcan hasta un 7% de la facturación global por el uso no autorizado, por ejemplo, del reconocimiento facial en campañas?
PO: Como comentaba dentro de un entorno de retail marketing. Pues mira estas opciones la verdad es que son, digamos tienen varios elementos para para poder ser tenidas en cuenta, es decir, el máximo sería el 7% o hasta 35 millones de euros.
Y esto es aplicable, por ejemplo, a prácticas prohibidas como lo que veíamos antes de la manipulación subliminal, la explotación de colectivos vulnerables, el social scoring, todo el tema también de control biométrico para fines policiales, policiales o categorización remota, pero hay que aplicarlo, como te decía, a determinados contextos y por ejemplo, para evaluar la cantidad de esta sanción, pues tenemos que tener una serie de elementos que podemos graduar, por ejemplo, la gravedad de esta, de esta infracción y el tiempo durante el que se ha alargado o el número de personas a la que ha afectado, o la intencionalidad o negligencia de la de de la empresa que la ha llevado a cabo.
O también, por ejemplo, si han cooperado con autoridades, entonces esos son elementos que nos van a llevar a saber si la sanción que nos pueden imponer es más alta o más baja. Pero bueno, de todos modos, como te decía, el reglamento no menciona explícitamente el marketing y estas cuestiones pues tienen un poquito más que ver con el Reglamento General de Protección de Datos.
Entonces, en un momento dado sí que sería posible ese uso de reconocimiento facial en campañas de de retail siempre que esté ese consentimiento. Por tanto, te diría que legitimación, información, evaluar el impacto que que puede tener y siempre está esa supervisión.
Yo creo que teniendo en cuenta estos elementos, podemos evitar sanciones. Sí que es verdad. Hay que decir que el reglamento es bastante confuso. Es un reglamento muy largo. Hay que leerlo varias veces para entender cuál es el enfoque y el alcance de todos ellos.
Pero bueno, a mi entender esto entra casi más en ocasiones en el tema del RGPD más que en el RIA.
EC: Otra pregunta muy muy de detalle, ya que te tenemos aquí, que la verdad que es un auténtico lujo escucharte. A mí me gustaría que nos contases sobre todo con todo el tema de la prohibición de cookies. A mí me gustaría que nos hablases de qué oportunidades ves que crea la prohibición de cookies de terceros combinado con la Ley de Inteligencia Artificial. Sobre todo para el desarrollo de modelos de targeting contextual de bajo riesgo.
PO: Sí, Pues esa es un poco la pregunta del millón.
De que nos llevamos planteando bastante tiempo desde que se planteó la desaparición gradual de estas cookies de terceros por los problemas que podía plantear o que históricamente planteaba con el tema de privacidad, como sabemos muy bien, se ha ido alargando este este retraso por parte de de Google porque no había como alternativas claras a bueno, sí hay muchas alternativas.
Hay de identificación determinista, probabilista, probabilística, hay determinadas soluciones, pero todavía, digamos, no había una que que el sector pudiera dar el salto y pasar de las cookies a otras a otras tecnologías.
Pues como comentas, esta desaparición de estas cookies, cuando finalmente se lleve a cabo, pues plantea otras opciones.
Por ejemplo, los data clean rooms, yo creo que son opciones muy positivas para poder tratar estos datos de manera legal y acotada. También, como tú comentabas,todo lo que tiene que ver con publicidad contextual, pues también es una solución, siempre teniendo en cuenta que la publicidad contextual también se tratan datos que muchas veces el regulador como que piensa que la publicidad contextual es ajena al tratamiento de de esta información y no va por cookies de terceros.
Pero también hay tratamiento detrás, y bueno, pues al final yo creo que esa parte de uso de First party data esos datos de primera parte que puedan tener las empresas.
Y más allá de la cantidad de datos, creo que la capacidad de analizarlos y la capacidad de sacar conclusiones interesantes sobre estas audiencias.
La calidad del dato y la inteligencia que le pongan a las mismas. Entonces, bueno esto en realidad afecta.
Pues tendrán una posible implicación con con la IA en tanto en cuanto se utilicen técnicas para para el uso de estas, de estas nuevas tecnologías.
Pero yo creo que nos movemos en un entorno de nuevo muy RGPD, muy privacy y muy de otras normas, digamos más más horizontales
EC: Pues Paula, para cerrar, que era el objetivo de esta sesión, entender cuál era el contexto en el que nos encontrábamos en la aplicación de la Ley de Inteligencia Artificial Europea y cómo capilarizar en cada uno de los Estados miembro. A mí me gustaría volver a una cosa que has mencionado que es me parece fundamental y es el artículo cuatro de esta ley que exige de alguna forma esa alfabetización en la inteligencia artificial para todos los actores de la cadena y me gustaría que en base a tu conocimiento y tu experiencia aquí, qué estrategias recomiendas para formar a las empresas en estos principios éticos, que bueno que promulga y que trata de impulsar esta ley.
PO: Pues este es uno de los artículos que a mí me parecen más interesantes dentro de que cuando se habla de de la carga regulatoria del RIA y de todas las obligaciones que se imponen, para mí esto es un poco más de proactividad. No se trata de evitar un mal mayor con, con con un conocimiento de la normativa.
Entonces este famoso artículo cuatro que habla de alfabetización de la IA, pues lo que requiere es que los actores que estén implicados en el ciclo de vida de la IA se les forme, pues ya sean desarrolladores, sean implementadores o los propios usuarios, lo que lo que la ley definía como usuarios que son las empresas que lo que lo pueden utilizar. Y básicamente bueno, básicamente se dice rápido, pero luego tiene una trascendencia mucho más larga.
No se trata de asegurar que se comprenden los principios éticos y legales. Del desarrollo de todas estas tecnologías. Esto se puede llevar a través de múltiples formas. Lo que sí que es verdad es que no valen cursos genéricos. Uno que puedas hacer en Internet para documentar o decir que te has formado en inteligencia artificial tienen que ser programas ad hoc adaptados a qué tipo de problemáticas ya venga de sector, seguros de sector farma, sector publicidad y que se expliquen y se aterricen las cuestiones éticas o legales que pueden impactar en estas en este entorno en particular.
Entre otras cosas, yo creo que es interesante y tú y yo compartimos muchas veces aulas en este tipo de formaciones, pues son programas de sensibilización, por ejemplo para la alta dirección.
Yo creo que al final un directivo que no esté sensibilizado y yo creo que ya quedan pocos en toda la problemática y en toda la todas las derivadas que pueden tener, pues produce un efecto en cascada hacia abajo y también de abajo arriba.
Es decir, al final nos tienen que estar formados todos aquellos que vayan a tratar estas cuestiones desde, en fin, desde el programador hasta hasta el que decide que toma la decisión. Y luego, por otro lado, dentro de estos programas de alfabetización, pues creo que también es fundamental la creación de estos comités de ética que sean multidisciplinares y sean diversos para también para tener en cuenta todas las sensibilidades que se pueden recoger de cara a las empresas.
La Unión Europea ha hecho algún un webinar en el que se narran algunas iniciativas y bueno, yo creo que ahora mismo, durante este año, hasta que sea plenamente exigible todo, pues empezaremos a ver también muchas empresas formándose en esto que se llama la la IA responsable y sobre todo, bueno, pues más allá de de tener un conocimiento sobre los impactos de de esta tecnología tan tan potente para todos nosotros, pues cómo impacta en en las cuestiones más más aterrizadas.
Creo que estamos en un momento en el año 0 de todo esto y que veremos por delante mucha formación y empresas.
Quiero pensar que que responsables con lo que puedan desarrollar y que no diga pues es que no sé cómo funciona este algoritmo o esta caja negra o no sé cómo llegué a esta conclusión.
EC: Totalmente. Un auténtico reto, un reto empresarial, reto como sociedad y reto como individuos. Así que totalmente de acuerdo, Paula. Oye, pues nada, ha sido un lujazo escucharte, La verdad que yo es que te haría mil preguntas más. Vamos a tener que hacer una tercera sesión en donde bueno, según vaya avanzando la implementación de esta ley y la vayamos viviendo todos un poco más, yo creo que de hecho lo has mencionado, estamos en el año 0 la sensibilidad por el impacto de esta tecnología. Yo creo que cada vez empezamos a ser más conscientes como sociedad y bueno, es una oportunidad, por supuesto, de empezar a hacer las cosas desde cero y hacerlas bien.
Así que nada, Paula, muchísimas gracias por tu conocimiento, por darnos esa visión en qué momento estamos y sobre todo por darnos también detalle de cuestiones que nos preocupan en la operativa que tenemos dentro de esta industria. Así que nada, un lujazo, un placer como siempre charlar contigo. Y bueno, pues al final contestar a preguntas que siempre comentas, que yo siempre te digo que son preguntas que son profundas, no son, no son las preguntas clásicas de regulación y regulación, sino que sirvan al fin y al cabo para para aterrizar y que las empresas puedan sacar insights o conocimiento de utilidad. Así que encantada como siempre de charlar contigo.