16 noviembre, 2023

Regulación Digital: preguntas y respuestas para 2024 [Podcast Digital Talks by t2ó]

Regulación digital

En un momento en el que la tecnología avanza a pasos agigantados, Europa se encuentra en un momento decisivo en relación con la regulación de los servicios digitales y de la Inteligencia Artificial, dónde se está experimentando una transformación enorme, tanto desde los Estados miembros como desde España, con el fin de adaptarse una normativa acorde a la realidad actual y poder ser aplicados en el futuro. 

 

La regulación digital se ha convertido en una pieza clave para mantener  una buena regulación de los servicios digitales y de la Inteligencia Artificial, y por ello es necesario contar con un entorno competitivo y de gran seguridad tanto a nivel nacional como internacional. 

 

En este podcast hablamos sobre la regulación que se está desarrollando a nivel europeo sobre servicios digitales e Inteligencia Artificial, para conocer cómo afectará a las marcas, los usuarios y los proveedores de servicios digitales y tecnológicos, y que ocurrirá en 2024.

 

Para ello, hemos contado con la participación de Paula Ortiz, abogada y asesora ejecutiva en Regulación Digital que cuenta con más de 18 años de experiencia en el sector.

 

 

 

¿Qué podrás escuchar en este podcast?

  • Situación actual de regulación de servicios digitales y de Inteligencia Artificial a nivel europeo y a nivel nacional.
  • Puntos principales a tener en cuenta desde el punto de vista del usuario, de las empresas y de los propios proveedores.
  • Trabajo en la Inteligencia Artificial por parte de los Estados miembros.
  • El impacto de la Inteligencia Artificial en proveedores digitales y tecnológicos.
  • Diferencias de regulación de Europa con respecto a países como EEUU o China.
  • Cómo deben prepararse los Estados miembros ante la regulación de servicios digitales y de Inteligencia Artificial.
  • Roadmap que deben de tener en cuenta proveedores y empresas.
  • Mayor conciencia en la ciudadanía. 

 

 

¡Te esperamos en Digital Talks by t2ó! Ya tienes el episodio disponible en nuestros canales de Spotify, Apple Podcast, Google e iVoox 🎧

Si te ha gustado y te parece interesante de cara a tu negocio no dejes de escuchar los demás capítulos, ¡aprenderás de/con l@s mejores! 🤓

 

[Transcripción del Podcast]

EC: Hola, soy Esther Checa y hoy vamos a hablar sobre la regulación que se está desarrollando a nivel europeo sobre servicios digitales e inteligencia artificial, para entender cómo las marcas, los usuarios y los proveedores de servicios digitales y tecnológicos vamos a tener que movernos. 

Para ello, hoy contamos con Paula Ortiz, abogada y Executive Advisor, con una amplia experiencia en la regulación digital y en su impacto para la industria. Actualmente asesora a empresas en todos los aspectos de la normativa nacional e internacional con impacto en su actividad digital. Paula tiene una amplia trayectoria profesional como portavoz de asuntos legales e institucionales a nivel nacional y europeo. Durante diez años dirigió el Departamento Legal y de Relaciones Institucionales de la IAB Spain, siendo portavoz para temas regulatorios. También ha ejercido como asesora en relaciones internacionales de la Agencia Española de Protección de Datos, representando a España en la Comisión Europea y en otras instituciones internacionales. Es profesora asociada del Instituto de Empresa sobre Ética, Políticas Públicas e Inteligencia Artificial y también imparte clases en otras universidades y escuelas de negocio. 

Pues Paula, no se me ocurre mejor persona para abordar un tema tan candente como el que queremos tratar hoy. Así que muchas gracias por dedicarnos hoy tu tiempo.

 

PO: Muchas gracias a ti, Esther, por la invitación a charlar contigo sobre estos temas. Encantada de pasar un ratito aquí hablando.

 

EC: Paula, como hemos comentado en la intro, llevas 18 años dentro del entorno de la regulación digital. ¿En qué punto estamos ahora cuando se habla de regulación de servicios digitales y de Inteligencia Artificial a nivel europeo y en concreto, específicamente a nivel nacional?

 

PO: Bueno, pues ahora mismo podemos decir que Europa se encuentra en un momento crucial en el que está redefiniendo todas sus normativas y está creando lo que se llama un poco la segunda generación de leyes de Internet. Después de esas primeras de finales de los años 90 y de los años 2000. 

Y bueno, pues para ello está dando unos pasos significativos para adaptar la normativa a la realidad actual y digamos que quiere ganar esta, lo que se ha venido llamando en este anglicismo está Digital Race o Carrera digital, donde geopolíticamente los diferentes bloques están intentando competir por liderar esta innovación y adoptar estos estándares que se van a aplicar en el futuro.

Entonces, bueno, pues está asumiendo un papel pionero al establecer normativas que podrían tener este impacto global, y quiere, bueno, un concepto que me gusta mucho, que es anglosajón, que quiere trabajar con lo que se llama el efecto Bruselas, que es este fenómeno por el cual las políticas y regulaciones de la Unión Europea tienen un efecto dominó en otros países, como ya pasó por ejemplo con el famoso Reglamento General de Protección de Datos. 

Y por otro lado, esta difícil tarea la tiene que compaginar además con crear un entorno que sea competitivo y seguro a nivel global. 

Por tanto, como vemos tenemos aquí una doble tarea en el que Europa está trabajando, pues bastante fuerte.

Por otro lado, a nivel nacional nosotros en España pues ha pasado algo curioso y es que nos hemos adelantado a la aplicación de esta normativa y España ya ha sacado una una agencia, digamos, de supervisión de la inteligencia artificial que tendrá sede en A Coruña.

Tenemos también alguna propuesta de normativa también para regular la IA y los algoritmos, por tanto, bueno, pues esto sería en cuanto a nivel en cuanto a Inteligencia Artificial y por otro lado, en cuanto a la Ley de Servicios Digitales y a la Ley de de Mercados Digitales, estas leyes ya están aprobadas desde el año pasado y bueno, pues se ha dado lo que se llama en el entorno jurídico una vacatio legis, que es un tiempo para que las empresas se adapten y por ejemplo, la Ley de Servicios Digitales comenzará a ser de aplicación en febrero del año que viene. 

Y vamos a ver ahora, me imagino que a lo largo de la entrevista cuáles son los detalles de esta ley. 

Pero bueno, comentarte que por ejemplo, los proveedores de muy gran tamaño, tanto las plataformas como los buscadores ya tienen la obligación de cumplir con algunos de los requisitos desde agosto de este año pasado. 

Por tanto, bueno, pues tenemos ahora mismo bastantes normas que van entrando de manera un poco asíncrona en hacer de aplicación y desde luego es importante tener el ojo sobre sobre todas ellas.

 

EC: Acabas de mencionar la regulación de tanto de servicios digitales como la de los mercados digitales. A mí me gustaría que nos comentases o que nos ayudases a saber, ¿cuáles son los puntos principales a tener en cuenta desde el punto de vista del usuario, de las empresas y sobre todo de los propios proveedores de servicios digitales y tecnológicos?

 

PO: Muy bien, pues mira de manera previa, como punto de partida, comentarte un poco cuál es el objeto de cada una de las leyes. 

Por un lado, la Ley de Servicios Digitales se centra en la responsabilidad de las plataformas en línea, incluyendo la moderación de contenidos, por ejemplo, y la lucha contra la desinformación. Mientras que la DMA, la Digital Markets o la Ley de Mercados Digitales busca abordar y eliminar esta posición dominante de las grandes compañías de lo que se llama los guardianes de acceso, los gatekeepers. Entonces, bueno, a través de estas finalidades, pues abordan cuestiones, como te comentaba, de la lucha contra la desinformación, la erradicación de los contenidos ilícitos, la promoción de la transparencia de los algoritmos o en el caso de las grandes plataformas, erradicar estos riesgos sistémicos que pueden provocar las grandes tecnológicas. 

Entonces, desde el punto de vista de los de los usuarios, la idea o la finalidad de la de la Ley de Servicios Digitales es que podamos entender, por decirlo de una manera un poco llana, qué pasa entre bambalinas en Internet.

Al final, entender qué pasa con nuestros datos personales, entender cómo tratan las plataformas en nuestros datos y bueno, pues conocer mucho más que por qué los algoritmos tocan, toman decisiones con respecto a nosotros. Esto se traduce en una serie de obligaciones para las empresas. Podemos decir que las empresas en este punto tienen tanto desafíos como oportunidades.

Por ejemplo, por un lado, a las empresas les requiere unos estándares más estrictos en términos de transparencia. Yo creo que sería la clave de estas normas en cuanto a la moderación de contenidos, como te comentaba, incluye también, por ejemplo la prohibición de crear lo que se llama los patrones oscuros que es estas maneras de pedir datos en internet, que no queda muy claro si estás dando el consentimiento o no y cuáles empresas están detrás. 

Pero luego también, por ejemplo, la Ley de Mercados Digitales incluye también una serie de oportunidades. Por ejemplo, les da la opción a las empresas de solicitar datos a estos guardianes de acceso a Google, a Meta, Amazon, a las grandes compañías,es decir, que al final este pastel se reparta un poquito más. ¿Y aquí yo creo que las empresas tendrán que que ver hasta qué punto pueden sacar un provecho de esta oportunidad, no? Y bueno, luego con respecto a los a los proveedores, pues realmente al final crea una, un, digamos, un recorrido de diferentes obligaciones que van de menor a mayores obligaciones y se traduce, por ejemplo, desde las que pueden afectar quizá a muchas de las empresas que oirán el podcast. Quizá es la obligación de de redactar los términos y condiciones de manera sencilla y clara. Esto yo creo que es súper novedoso y muy útil. El hecho de que por fin el usuario medio entienda que está leyendo, que es esta gran mentira de he leído y acepto los términos y condiciones.

Y bueno, esto también te digo que tendrá bastante trabajo para los abogados, que parece que que nos cuesta un poco el ser sencillos, que no simples en en las en las explicaciones. 

Y luego pues como te comentaba, una de las grandes novedades que yo creo que va a suponer algo, un verdadero cambio es la obligación de explicar los algoritmos. Esta parte de explicabilidad y explicar cómo cómo moderar el contenido porque sitúan unos productos por encima de otros. ¿Y sobre todo, eso también va a tener un impacto, como veíamos en todo el tema de la desinformación y bueno, haciendo que esta sea como más, más precisa y confiable, no? Y bueno, por otro lado, la Ley de Mercados Digitales, pues como te decía, intenta abordar estas prácticas monopolísticas y les obligará a compartir datos. Y por ejemplo, un tema bastante interesante para el tema, para el entorno publicitario, es que se obligará a las plataformas a llevar a cabo un reporting diario, tanto a anunciantes como a editores sobre cuánto, cuánto se invierte en publicidad, por ejemplo, y cuánto se invierte en publicidad, conforme a qué, conforme a qué palabras clave. Es decir, al final se trata un poco de acabar con esta opacidad que sucede en Internet.

 

EC: Muy interesante, Paula. Volviendo a la parte más regulatoria, orientada a la parte de inteligencia artificial, la eclosión que estamos viendo desde finales del 2022, de alguna forma hemos visto que hay determinados organismos civiles y políticos que están pidiendo un mayor control de esta por el impacto que va a tener esto a nivel social y laboral. Y me gustaría que nos contases qué está pasando a nivel europeo, en qué está trabajando, cómo se está trabajando a nivel europeo y sobre todo cómo los Estados miembros deben de prepararse.

 

PO: Pues bueno, en primer lugar yo creo que ha habido aquí con esta eclosión, ha habido ahí bueno pues debates a todos los niveles, desde poner el foco en ocasiones en esos riesgos un poco largoplacistas sobre el humanismo, los sentimientos de los robots, Skynet, etcétera Pero lo cierto es que tenemos problemas más, más acuciantes y son los que son los que está trabajando la Comisión Europea. Y es, pues, todas las cuestiones derivadas de de los modelos fundacionales o de propósito general, con todo lo que tiene que ver, por ejemplo, con con los sesgos, con, con, con los datos con los que se alimentan estos algoritmos. Como te decía, con la desinformación, la suplantación de la identidad con estos famosos deepfakes. ¿Qué pasa también con todo el tema de propiedad intelectual, con los derechos de autor o la transparencia. 

Cómo está trabajando la Unión Europea, hay que decir que es sorprendente la rapidez con la que esta norma está a punto de ser aprobada. Tendremos que tener en cuenta que la Comisión Europea publicó su propuesta en 2021 en septiembre y bueno, ahora mismo estamos en octubre de 2023 y parece vamos la. Digamos que parece ser que la normativa está en los últimos tramos antes de su aprobación, no, de hecho estos días se está votando en el Consejo y es posible que bueno, pues que es posible que a primeros del año que viene tengamos ya aprobada la normativa. ¿Entonces, bueno, cómo está trabajando la Unión Europea? Ha intentado hacer un enfoque basado en riesgo, es decir, no ser demasiado, no intentar hacer una foto fija de la tecnología actual, básicamente porque imagínate cuando salió la propuesta de la Comisión ni siquiera.

Teníamos encima de la mesa los modelos fundacionales. Por tanto, a saber qué pasa en el 2024 y años posteriores. Por tanto, como te decía, se regulan usos, no se regulan tecnologías y esto es una forma de que esta norma se pueda aplicar, pues a futuro y. Y bueno, pues por ejemplo, una de las últimas cuestiones que se están discutiendo y un asunto bastante novedoso, es que las empresas tendrán que presentar las fuentes de datos a la Comisión Europea, como las fuentes de datos con las que han alimentado estas inteligencias artificiales como parte de informes periódicos, de tal manera que los autores sepan si se ha podido reutilizar sus obras, si no, es decir, de alguna manera es como un estriptis empresarial. ¿Y acabar con esta opacidad y estas, estas cajas negras, no? Luego también otro. Otro tema también interesante es que también tienen que llevar a cabo informes de cuánta electricidad utilizan para mantener estos servicios. ¿Como vemos, pues también tienen diferentes cuestiones relacionadas con la sostenibilidad, no? ¿Y entonces, bueno, si te parece, te puedo mencionar los tipos de riesgos que recoge para ver de qué manera pueden aplicar a las a las diferentes empresas, no? Por ejemplo, habla que hay tipos de riesgos que son inaceptables básicamente.

Por tanto, están prohibidos, salvo que haya una autorización judicial y o legal. En este caso, pues hablaríamos por ejemplo, del social scoring. Esta, esta esta actividad que se está llevando a cabo en países como China, pues en Europa estaría prohibido, o los sistemas policiales predictivos o el control biométrico a distancia. ¿Esto si algunas empresas están planteándose llevar a cabo actividades de este tipo, pues que sepan que que son, que están prohibidas, no? Y luego hay una segunda opción que son las que se llaman de riesgo alto, que aquí se necesita una certificación para para llevarlas a cabo. Y también se necesita, pues como quien dice, una supervisión humana. ¿Ya que hablamos de sistemas de selección de personal, sistemas de recomendación de también de redes sociales que pueden tener también un impacto como como vimos en su momento con Cambridge Analytica, que pueden cambiar incluso hasta el rumbo de un país, no? Y en este caso la cuestión es que ahora mismo está siendo debatida. Es que para que una un uso sea declarado de alto riesgo, es la propia empresa la que lo tiene que declarar. Y eso pues puede permitir ahí cierto margen en el que una empresa, pues en un momento dado no lo declare. Entonces ahí de momento se está pidiendo que se vuelva un poco a cosas como un poco más concretas. Luego tendríamos los riesgos, el riesgo medio que pues ahí podríamos incluir todos los asistentes virtuales, chatbots y la inteligencia artificial fundacional, que aquí la clave de nuevo es es la transparencia en me gusta.

El otro día leía un concepto que me gusta mucho, que es la Ley Blade Runner que que de alguna manera prohíba el el hecho de de que sea un robot el que lleve a cabo estas estos elementos sin que se sepa que verdaderamente es es un robot no? Entonces bueno, en este caso de los asistentes y de IA fundacional, pues a priori no se consideran de riesgo alto, pero habrá que ver si efectivamente alguna de esas finalidades o de desarrollos futuros entran en esta clave. ¿Y luego, por último, está el riesgo bajo, que básicamente se regularía a través de de autorregulación, no? Y bueno, desde el punto de vista de los Estados miembros, por continuar con tu pregunta, pues básicamente tienen que prepararse para armonizar e intentar tener una visión similar en cuanto a la en cuanto a la regulación de estos de estas inteligencias artificiales. Al fin y al cabo va a ser un reglamento. Eso significa que se aplica de manera directa a los Estados miembros. Por tanto no debería haber mucho margen o que difirieran mucho lo que puedan opinar algunas autoridades de supervisión de otras no. No obstante estas van a estar también coordinadas por la Comisión y habrá algunas cuestiones que directamente sea la Comisión la que la que los lleve. De tal manera que que tienen que trabajar todos de manera coordinada en todos los Estados miembros.

 

EC: Muy muy interesante Paula esto que estamos hablando a nivel más macro, ¿cómo aplica desde el punto de vista de los proveedores digitales y tecnológicos? ¿Cómo les impacta esta normativa de la IA?

 

PO: ¿Pues bueno, como como te comentaba, al fin y al cabo tendrán que llevar a cabo un estudio previo, una certificación, digamos, para ver si los diferentes usos para los que van a utilizar estas, estas herramientas, estas tecnologías, estas Ias entran dentro de los diferentes apartados si directamente quieren llevar a cabo tratamientos que tienen un impacto para para los derechos y libertades o si o si directamente pues tienen bueno, pues un impacto menor, porque básicamente van a poner un chatbot en una empresa, no? Por tanto parten de esta evaluación para ver si estos usos están. Estarían encuadrados en cada uno de estos de estos elementos.

 

EC: Con respecto a las regulaciones que estamos hablando, tanto las de servicios digitales como la propia de la inteligencia artificial, que en cierto modo trabajan para ese control de alguna forma de la soberanía digital europea o en la parte de la protección de los derechos fundamentales de los ciudadanos, o en dar respuesta a marcos éticos dentro de este nuevo contexto tecnológico. ¿En tu experiencia y por lo que has estado trabajando durante todos estos años, en qué se diferencian estas regulaciones europeas de las que vemos en Estados Unidos y en China?

 

PO: Es una pregunta muy pertinente porque ahora mismo, como te comentaba, ahora mismo el tablero geopolítico está enfrascado en ganar esta esta carrera digital y digamos que, como tú planteabas, hay como tres grandes bloques o tres grandes polos. ¿Tenemos por un lado el bloque anglosajón, el bloque europeo y el bloque asiático, no? ¿Y bueno, pues por ejemplo, Estados Unidos tiene un enfoque históricamente como muy liberal, muy orientado al al comercio, donde el buen derecho es el que el que protege a los negocios, no? ¿Inicialmente habían adoptado un enfoque como bastante tolerante con la inteligencia artificial, pero últimamente han ido aumentando estas estas exigencias, no? Entonces. ¿Bueno, pues como te decía, el enfoque en Estados Unidos es el que que procura un poco el bienestar económico, no? Por otro lado, tenemos el bloque asiático, en el que China también ha venido trabajando en propuestas, en propuestas para regular la inteligencia artificial. En China no hay mucha confianza, por decirlo de una manera suave, en lo que las autoridades puedan hacer o no con los contenidos generados. ¿Y bueno, pues las cuestiones éticas y de y de derechos fundamentales están puestas un poco en entredicho, no? Sí que es verdad que ellos tienen han aprobado también algunas regulaciones en cuanto al uso de algoritmos e imágenes, pero bueno, los están repartiendo entre algunas empresas y también están trabajando en ensayos de cumplimiento que da el propio, el propio Estado, con lo cual pues bueno, es un poco como como está el planteamiento, digamos que están todos en desarrollo y bueno, Europa pues nos queda ser el regulador, el lo que se ha llamado también en el entorno jurídico, el tercer camino, el cert way.

Y bueno, pues busca ese hueco a partir de una regulación más centrada en las personas, en los valores humanos y pues bueno, un poco en ese, en ese enfoque humanista no? ¿Y bueno, pues quiere, digamos, enfocar todo, toda esta regulación en sistemas de confianza, evitando que sea ni el mercado, ni el ni los estados los que los que desarrollen esto no? ¿Y cómo funcionaría esto? Bueno, pues con una, digamos, extraterritorialidad en la aplicación. Si quieres operar en Europa tienes que cumplir la la norma y ya. Pues aparte de además de ser algo un poco como es que si quieres operar en un. ¿En un entorno en el que tienes 400 millones de habitantes, pues tienes que cumplir con nuestras, con nuestras normas, no? Entonces bueno, aquí Europa, con esta propuesta de reglamento, digamos que quiere ser como la primera en adoptar una ley de inteligencia artificial y que y que bueno, pues al final que estos estándares sean los que se puedan que se puedan aplicar en otros Estados miembros, como como te comentaba con este efecto Bruselas y que al ser la primera, pues que las empresas, como ya te decía, como ya pasó con el RGPD, pues pongan estos estándares y se tengan que que bueno, pues digamos que sea como el el estándar, el estándar mundial.

Entonces bueno, eso sería como los tres grandes bloques. ¿Pero comentarte también que a nivel internacional la OCDE también ha publicado una recomendación, la UNESCO, y se está también valorando, pues se ha creado una asociación tecnológica entre Estados Unidos y Europa y se está tratando de desarrollar un, digamos, como un memorandum of Understanding, un entendimiento mutuo para ver si si se pudiera crear una una agencia internacional para la IA que bueno, aquí la verdad es que veremos a ver en qué queda, porque si no nos ponemos de acuerdo en temas de protección de datos, pues ya en tema todavía más elevado y que incluye también como es la IA, pues bueno, como propuesta está muy bien, pero de momento digamos que me iría quedando con con con la propuesta de normativa de Europa, no? Entonces bueno, como vemos, hay tres frentes bastante divergentes y Europa quiere poner aquí un golpe encima de la mesa y que sean nuestros principios los que se apliquen al resto de empresas.

 

EC: Lo has ido comentando a lo largo de la entrevista, pero sí que me gustaría hacer un resumen, sobre todo para tener en cuenta cuál es ese roadmap que tienen que tener en cuenta las empresas y proveedores de servicios digitales y tecnológicos sobre todas estas regulaciones para que las tengan en un calendario?

 

PO: Bueno, pues aquí lo que las empresas tienen que hacer de cara a 2024 es ir viendo de qué forma les pueden aplicar cada una de las de las. ¿Esto yo lo llevaría a cabo a través de auditorías internas para evaluar hasta qué punto como intermediario de Internet, me aplica como plataforma de hosting, como como plataforma que difunde contenidos o incluso como plataforma de muy gran tamaño, no? ¿Por tanto, estas evaluaciones se tienen que llevar a cabo y ver pues un inventario de procesos y de datos, no? ¿Una parte también fundamental es también la formación y capacitación de las de los empleados para que puedan aplicar estas políticas una vez que se adopten, no? Y por supuesto, adaptar estas estas políticas internas. ¿Y esto pues de alguna manera se tendrá que hacer de la mano de especialistas legales que puedan que puedan garantizar esta comprensión completa de las de las regulaciones, no? Para esto, pues realmente yo creo que es que. El el entorno digital va a cambiar fundamentalmente porque pues eso, hay que implantar estos procesos de reporting y transparencia, hay que trabajar un poco en en ser capaces de explicar cómo funcionan tanto los algoritmos como como todos estos procesos. Y lo cierto es que la DSA y la DMA incluyen un amplísimo catálogo de obligaciones que hay que ir viendo. Eso en primer lugar, saber en qué rol podemos jugar. Sí que es verdad que las pymes y las micropymes están exentas de muchas de las de las obligaciones, pero en el momento en el que tengamos un e-commerce, un seamos un intermediario tecnológico, tengamos una plataforma, pues ya tendremos que ver de qué manera nos afecta. Y también pues implantar también políticas de transparencia sobre los precios y en definitiva, cambiar los flujos, los flujos de trabajo con todos los con todas las empresas con las que operemos y por supuesto, con los usuarios.

 

EC: Paula para, para ir cerrando, a mí me gustaría y es algo que te lo planteo porque me preocupa también como ciudadana a título personal, sobre todo cuando escuchas todos estos aspectos regulatorios, que muchas veces es muy macro y a veces se queda un poco más despegado del día a día. Y aquí el ciudadano cómo se le puede hacer más partícipe para que tome mayor conciencia o tomemos más conciencia de nuestros actos en el uso de las tecnologías con carácter general y sobre todo, bueno, pues a la hora de dar nuestros datos.

 

PO: Bueno, yo creo que para que un ciudadano tome mayor conciencia lo principal es que esté informado. No lo es que haya esa transparencia y que el usuario medio entienda cómo las organizaciones tratan sus datos, para qué finalidades y y bueno, pues esa parte de responsabilidad que yo creo que yo creo que es doble por un lado del ciudadano, pero para que este ciudadano pueda ser consciente y crítico, pues necesita que tenga la información para saber si si quiere dar o no estos datos, no? ¿Entonces, por tanto, al final es un tema también de exigir a las empresas esa transparencia, esa explicabilidad y de abrir estas cajas negras, no? Ahora mismo se está hablando mucho, por ejemplo de del Legal Design, que es el el explicar de manera sencilla estas políticas de de privacidad, estos términos y condiciones y De manera que. ¿Bueno, pues a través de infografías o a través de cuestiones un poco más más sencillas, digamos pues el usuario pueda entenderlo, no? Y por otro lado, la educación es un papel fundamental y aquí yo creo que que las campañas de concienciación pública tienen un papel también importante sobre los riesgos y los beneficios del uso de las tecnologías y de cómo de cómo proteger su privacidad en línea.

Y aquí, por ejemplo, la Agencia Española de Protección de Datos yo creo que es un un ejemplo de muy buenas prácticas, no solamente a nivel nacional, sino a nivel internacional, con multitud de campañas que suele tener de concienciación, sobre todo con los menores, sobre, por ejemplo, cómo actuar en caso de suplantación o cómo utilizar con responsabilidad los los dispositivos. Por tanto, yo creo que es responsabilidad, en primer lugar de las empresas, de ser más transparentes, de las instituciones que incluyan en los planes educativos y también a todos los niveles esta parte de concienciación para que el usuario pueda ser más crítico y tener más capacidad de de de reacción al al respecto, yo creo que sería bueno y también pues nosotros también hacer un ejercicio de autocrítica y que no todo sea lo quiero ya y ahora y no me leo nada y y lo quiero todo gratis. Y entonces pues tenemos que entender que Internet no es, no es un lugar en el que toda la información es gratis y las cosas no pasan por nada, Entonces pues también esa parte de ser un poco conscientes y poner un poco de foco también en esto.

 

EC: Me gusta esto último que dices, porque de hecho hace poquito tiempo, leyendo un informe sobre el impacto que podían tener los deep fakes dentro de conflictos internacionales, al final los autores lo que venían un poco a decir es aparte de entender cuáles son los riesgos que supone el uso de estas tecnologías con carácter específico en conflictos internacionales y su uso en particular dentro de la sociedad. Un poco la conclusión a la que llegaban es cómo se puede mitigar el uso del impacto que tiene todo esto. Una de sus primeros puntos básicamente era educar al público en general para aumentar esa alfabetización digital y ese razonamiento crítico, que es lo que acabas de comentar y que de alguna forma no nos podemos desinhibir. Así que totalmente de acuerdo Paula con lo que has dicho.

Pues muchísimas gracias por Paula por el tiempo que nos has dedicado, pero sobre todo por el despliegue de conocimiento que has hecho para tocar dos temas que yo creo que es que son fundamentales ahora mismo, el entender en qué punto estamos de la regulación a nivel de inteligencia artificial y esto como nos va a aplicar desde diferentes perspectivas usuarios, sociedad en general, las empresas y las grandes plataformas. Y lo más inminente, todo lo relativo a la parte de servicios y mercados digitales, como también va a impactar desde un punto de vista de negocio, pero también a nivel a nivel sociedad. Así que un lujazo tenerte hoy, Paula.

 

PO: Muchísimas gracias Esther por contar conmigo para charlar sobre estos temas que me encantan, la verdad. 

Sobre todo, encantada de haber pasado este ratito contigo.