14 marzo, 2024

Ética en la Inteligencia Artificial: claves para una implementación responsable [Podcast Digital Talks by t2ó]

Cómo establecer marco ético de una empresa en la IA

La moral y la ética se encuentran relacionadas entre sí, pero sin embargo, ambas son muy diferentes en muchos aspectos. Por ello, es muy importante entender que el objetivo de la ética dentro de la Inteligencia Artificial se encuentra en establecer unos principios que evalúen acciones y decisiones que marquen un punto de inflexión en el futuro de las empresas. Y es que la Inteligencia Artificial como tal no tiene ética ni moralidad. De hecho, se podría decir que es neutra desde el punto de vista ético, y que toma de decisiones según pautas y patrones con los que ha sido entrenada y programada. 

El sector de la educación es uno de esas industrias en las que es muy importante la implicación de la ética en la Inteligencia Artificial, y las personas que están día a día en este sector deben de conocer cuáles son los principios éticos para un buen uso de la misma.

En este podcast hablamos sobre la ética en la Inteligencia Artificial, la responsabilidad de los seres humanos que la crean, la utilizan y la supervisan.

 

Para ello, hemos contado con la participación de Mónica Villas, experta en tecnologías disruptivas, datos e Inteligencia Artificial. Esta profesional ha desarrollado toda su carrera directiva en IBM, y desde 2019 es emprendedora, asesora de tecnología, docente y directora en programas de Inteligencia Artificial y tecnologías exponenciales en diferentes instituciones como UNIR, Universidad Europea de Valey o Immune Technology. También es cofundadora de Odiseia y co-directora del área de Información y en 2013 publicó el Manual de Ética Aplicada en Inteligencia Artificial.

¿Qué podrás escuchar en este podcast?

  • La ética en el contexto de la Inteligencia Artificial y razones por la que es importante. 
  • Los desafíos éticos más urgentes a los que nos enfrentamos en el desarrollo y uso de esta tecnología.
  • Sesgos y prejuicios en los algoritmos de la Inteligencia Artificial.
  • Margen de maniobra en las empresas medianas y pequeñas
  • Transparencia y responsabilidad en los sistemas de Inteligencia Artificial. 
  • Papel de la educación y la concienciación pública en la promoción de una Inteligencia Artificial ética. 
  • Dilemas morales que puede abordar la ética de la Inteligencia Artificial.
  • Cómo se debería asegurar que una empresa está aplicando los principios éticos.

 

 

 

¡Te esperamos en Digital Talks by t2ó! Ya tienes el episodio disponible en nuestros canales de Spotify, Apple Podcast, Google e iVoox. 🎧

Si te ha gustado y te parece interesante de cara a tu negocio no dejes de escuchar los demás capítulos, ¡aprenderás de/con l@s mejores! 🤓

 

[Transcripción del Podcast]

EC: Hola, soy Esther Checa y hoy vamos a hablar sobre la importancia de tomar decisiones éticas cuando hablamos de Inteligencia Artificial. La Inteligencia Artificial en sí misma no tiene ética ni moralidad, Se podría decir que es neutra desde el punto de vista ético. Esta toma de decisiones según pautas y patrones con los que ha sido entrenada y programada. 

Sin embargo, la ética en la Inteligencia Artificial es responsabilidad de los seres humanos que la crean y la utilizan y la supervisan. De todo esto, hoy vamos a hablar con Mónica Villas, experta en tecnologías disruptivas, datos e Inteligencia Artificial. Mónica ha desarrollado toda su carrera directiva en IBM y desde 2019 es emprendedora, asesora de tecnología, docente y directora en programas de Inteligencia Artificial y tecnologías exponenciales en diferentes instituciones como UNIR, Universidad Europea de Valey o Immune Technology. También es cofundadora de Odiseia y co-directora del área de Información y en 2013 publicó el Manual de Ética Aplicada en Inteligencia Artificial. Mónica, muchas gracias por dedicarnos hoy tu tiempo.

 

MV: Bueno, muchas gracias a ti Esther. Me encanta esta iniciativa y gracias por hacerme parte de ella.

 

EC: Pues un lujazo. Mónica, vamos a empezar,  me gustaría que empezáramos familiarizarnos con la temática sobre la que tocamos cada uno de estos podcasts. Me gustaría que nos definieses un poquito más, ¿qué es la ética en el contexto de la Inteligencia Artificial y por qué es importante?

 

MV: Bueno, en primer lugar, la ética es una subdisciplina de la filosofía que estudia el comportamiento humano desde entender que es el bien y el mal en relación con la moral

La moral y la ética están muy relacionadas, pero son diferentes. La moral tiene carácter normativo, prescriptivo, trata de orientar ciertas acciones. Depende mucho de las costumbres, las creencias. En el caso de la ética, la ética está por encima de ello. No hay un código de mandatos, ni prohibiciones, ni nada de ese tipo, sino lo que se pretende es establecer unos principios a partir de los cuales evaluar acciones y decisiones. 

Digamos que la ética es como si pusiéramos la filosofía en práctica. No transmite juicios, sino que lo que trata es de enseñar a juzgar. Al final, las dos preguntas fundamentales que siempre ha tratado de responder la ética a lo largo del tiempo son que debemos hacer y que es valioso en la vida. La primera lo que trata es de promover el razonamiento ético, mientras que la otra lo que trata es de establecer ese marco de valores.

Al final, el razonamiento matemático siempre es muy sencillo, casi siempre hay una solución o prácticamente siempre hay una solución. En el razonamiento ético siempre nos encontramos con esos dilemas éticos. 

¿Por qué es importante dentro de la Inteligencia Artificial? Al final, la Inteligencia Artificial es otra de las tecnologías.

Y si comparamos, pues con a lo mejor esa energía nuclear que nos ha creado tantos dilemas u otro tipo de tecnologías, pues sí, yo creo que al final es parecida a la importancia que le damos a esa, a esa energía nuclear en el sentido de depende cómo la use, voy a poder hacer cosas que son buenas y otras cosas que no son tan buenas.

Al final todo lo que se puede hacer en tecnología no se debe hacer. La IA es diferente a otras tecnologías porque toma decisiones por nosotros y lo vemos en nuestro día a día. Lo vemos en las recomendaciones de Netflix, en las recomendaciones de compras cuando entramos para utilizar una ruta. Y bueno, pues hasta ahí. Son decisiones que no van mucho más allá Si se equivoca una película o una ruta. Cuando las decisiones son acerca de si nos contratan, de si tenemos que ir a la cárcel o de si en un momento determinado, en una serie de entrevistas nos seleccionan frente a otros solo mirando esa entrevista o tiene una serie de sesgos. Ahí es donde empieza a ser importante el tema de la ética.

 

EC: Mónica, según el contexto en el que nos estamos moviendo aquí, ¿cuáles ves que son los desafíos éticos más urgentes a los que nos enfrentamos, sobre todo en el uso y el desarrollo de esta tecnología?

 

MV: Bueno, yo los dividiría en tres grandes grupos. 

En primer lugar, eso se llamaría desinformación, y dentro de la desinformación me refiero a las fake news muy conocidas, al final cogen una imagen que no es real o construyen una imagen por IA o digamos que al final ponen una persona que no existe. Al final se trata de utilizar la IA para generar esas imágenes o ese contenido que no es real y lo llamamos fake news. 

Pero también podríamos estar hablando de la falta de veracidad y esto puede crear diferentes problemas. 

Otra parte donde lo hablábamos hace un momento es el tema de los sesgos, al final la Inteligencia Artificial coge los datos, entrenó el algoritmo y después hago una predicción, pues puede tener en ese proceso así tan simplificado que estoy explicando. Puede tener sesgos tanto en los datos como en la definición del algoritmo como en el despliegue del algoritmo. Pues imaginaros que lo que estamos haciendo es queremos hacer un algoritmo para contratar al mejor vendedor. Bueno, pues al final lo primero de todo tenemos que definir las características de quién es ese mejor vendedor, no qué características es el que más vende, el que más relaciones tiene, el que trabaja mejor en equipo, el que ha sido capaz de cerrar los los duelos más difíciles. 

Bueno, esa serie de características son las que tendría que definir junto con la persona de negocio y decirle al algoritmo en qué tipo de datos se tiene que fijar. Y después tendríamos que ir a ver si esos datos los tenemos, si somos capaces de encontrar esos datos y ver si no están sesgados, ver si no tenemos esos datos en los que pues por ejemplo, que empiece a tener registrado el código postal de la persona, el género, la edad, porque podríamos estar.

Imagínate que en alguna de estas decisiones o en alguna de estas variables de las que hablábamos antes, pues influye alguno de esos. De esos parámetros pues estaríamos cuando contratemos, estaríamos sesgando si lo hacemos en base a cualquiera de esos criterios. Y luego, por último y si imagínate que estamos haciendo este algoritmo en una geografía determinada, con unas características determinadas, hemos elegido esas características que decíamos para contratar. 

Bueno, pues al final imagínate que lo hago en Europa. Si me voy a China a desplegar este algoritmo, puedo tener características diferentes, el entorno puede ser completamente diferente. Entonces puedes tener sesgos en los datos. Como hemos visto, puedes tener sesgos en cómo definimos el algoritmo. Pues lo que para mí es importante para un vendedor igual no es importante para la persona de negocio o no tengo la suficiente diversidad de hombres, de mujeres que definimos que esperamos diferentes cosas de los vendedores o incluso de género o de razas de procedencias. 

Y por último, en en la parte lo que te decía de desplegar ese ese algoritmo en en otro entorno diferente al que en el que estamos diseñando. 

Otro de los desafíos éticos, desde mi punto de vista, es la explicabilidad, el saber qué está pasando dentro del algoritmo. La mayoría de los algoritmos y bueno, ya GPT, que es el, digamos, el más conocido ahora mismo, la tecnología más conocida, que es un algoritmo basado en en redes neuronales, al final es una caja negra, es decir, no sabemos muy bien qué está pasando dentro.

Los algoritmos de caja negra no sé lo que hay dentro, los que llamamos algoritmos de caja blanca suelen ser algoritmos más sencillos. También es verdad que me dan muchas veces una menor precisión, pero esos algoritmos de caja blanca pues imaginaros, sería un árbol de decisión en el que yo voy tomando.Voy viendo una serie de decisiones que el algoritmo va tomando, entonces al final la explicabilidad es importante porque yo quiero saber al final si me han concedido un crédito y por qué no me lo han concedido o si me han concedido una hipoteca o si me han contratado en una entrevista o por qué no me han contratado.

Muchas veces no es tan sencillo de explicar. 

Lo he dividido en tres grandes grupos porque me parecen los más relevantes. La privacidad sería el 4.º, pero digamos que no lo he metido en el punto ético, aunque también lo sería porque ahora mismo la regulación en Europa nos ayuda bastante a preservar esa esa privacidad y a proteger, a proteger esa privacidad. Entonces, es una pena que para llegar a tomar esas buenas decisiones éticas, al final tengamos que terminar en una regulación, porque la ética es la regulación, No son lo mismo, no podríamos regular no todos los comportamientos éticos, pero muchas veces pues actuamos mejor cuando hay una regulación, cuando hay algo que se puede hacer o no se puede hacer, que bueno, pues con esas decisiones éticas.

 

EC:  Aquí Mónica, también me gustaría que nos dieses tu punto de vista sobre cómo se puede abordar los sesgos y los prejuicios en los algoritmos de la Inteligencia Artificial para garantizar decisiones más justas y equitativas. Y esta pregunta me gustaría conocer tu punto de vista mucho, porque en anteriores podcasts, hablando con Javier Llorente de narrativa, el CEO de narrativa, nos da un punto de vista de la complejidad que supone abordar la gestión o la regulación o el control de este aspecto.

 

MV: Es bastante complejo quitar los sesgos de los algoritmos. 

De hecho, cuando Amazon salió en los periódicos ya hace tiempo porque había contratado a más hombres que mujeres, se dieron cuenta de que su aplicación estaba sesgada porque se fiaba de distintos datos anteriores. Y es verdad que habían contratado a más hombres que a mujeres. Es lo que suele ocurrir muchas veces en las empresas tecnológicas. Pero no era solo eso, era que el algoritmo habría aprendido del lenguaje natural. Los hombres y las mujeres escribimos diferente. Los hombres utilizan más verbos de acción en este análisis que hicieron de los currículums utilizan más verbos de acción, utilizan más la primera persona. 

Nosotras utilizamos más no tantos verbos de acción, no utilizamos tanto la primera persona. Entonces al final no pudieron encontrar, o sea, no pudieron quitar el sesgo en el algoritmo y tuvieron que retirarlo. Si volvemos al punto de los sesgos, están en los datos. Los sesgos están en cómo diseñó el algoritmo o pueden estar donde lo despliego. En la parte de los datos tienes poco margen de maniobra, porque si los datos son como son y es la realidad, pues Amazon contrataba a más hombres que a mujeres. 

Pues hombre, puedo generar datos sintéticos, pero realmente suele ser muy costoso en tiempo, y entonces muchas veces lo que haces es asegurarte de manera manual, es decir, al final tú estás viendo cómo estás entrenando al algoritmo, sabes que tienes más datos para un género que para otro o para una procedencia, y lo que tienes que hacer es es validarlo.

Al final es más sencillo. 

¿Y qué ocurre en el diseño del algoritmo? Yo creo que en el diseño del algoritmo sí que puede influir más, porque si volvemos a ese ejemplo tan sencillo que contaba antes de definir las características de cuál sería el mejor vendedor o el mejor empleado.

Al final, si yo tengo un equipo diverso, al final quién decide el diseño del algoritmo, no solo el científico de datos, O sea, al final la persona que quiere hacer un algoritmo para contratación, pues puede haber un científico de datos ayudándole y puede que ya tenga un expertise en recursos humanos, pero casi siempre necesito a ese experto en el área. 

Igual que si tengo que hacer un algoritmo para una segmentación de campañas, al final necesito a esa experta. Entonces, es importante que los equipos de diseño de algoritmos, tanto la persona de negocio como la persona que diseña el algoritmo, el científico de datos, haya una diversidad tanto de género como de edad, como de procedencia.

Ahí yo creo que sí que podemos actuar un poquito más y luego en la parte final, cuando estoy viendo el resultado del algoritmo y cuando estoy viendo cuando lo despliego ahí lo más fácil es mirar dónde estás teniendo sesgo y corregirlo aprendiendo del algoritmo. 

Fijaros que al principio, en las primeras versiones que se conocían menos de de GPT, sí que hacía unos comentarios algo más sexistas o machistas, daba unas respuestas un poco más si tú le preguntabas en determinadas profesiones.

Y eso se ha ido corrigiendo y no creo que estén actuando sobre los datos porque al final GPT se alimenta prácticamente de bueno, pues de millones de datos cogidos de múltiples sitios de internet, de de distintos sitios, de preguntas y respuestas o de Reddit. 

Y ahí ya tenemos unos sesgos que hemos ido arrastrando a lo largo del tiempo. Entonces, yo creo que lo importante es que seamos conscientes de que pueden existir estos sesgos. Seamos conscientes de que la Inteligencia Artificial aprende y aprende de los datos que le demos y aprende de esos sesgos. También, desgraciadamente o afortunadamente, aprende de las dos cosas, de lo que puede sacar de los datos, pero también puede estar ese, ese sesgo. Entonces yo creo que lo que tenemos que tener claro es que puede ocurrir y revisarlo.

 

EC: Totalmente, Totalmente de acuerdo Mónica, y está muy alineado con también con lo que nos contaba Javier. 

Y otra cuestión, a mí me gustaría entender también un poco qué margen de maniobra tienen las empresas, sobre todo las empresas medianas y pequeñas en la aplicación de esos principios éticos en la Inteligencia Artificial que están utilizando, y me centro en estos dos tamaños de empresas, porque partimos de la base de que las grandes empresas, las multinacionales, tienen como parte de responsabilidad social aplicar estos aspectos en el desarrollo de estos algoritmos y utilizando esta tecnología. Pero, ¿qué pasa con estas pequeñas y medianas empresas?

 

MV: Bueno, al final yo creo que es una decisión de la propia empresa.

Esto al final es una decisión estratégica. Quiero implicarme en temas éticos y quiero implicarme en temas éticos, de Inteligencia Artificial.

Al final yo creo que el cliente tiene mucho que decir desde la transformación digital. Tenemos mucho poder con un móvil en la mano, el poder dar nuestro feedback o nuestra opinión sobre productos, sobre empresas. Y yo creo un informe de Capgemini que ya lleva tiempo desde 2018 por ahí hizo un análisis de distintos, de distintas compañías y lo que se dio cuenta es que la la ética genera beneficio, es decir, el NPS mejoraba algo así como en 40 puntos en personas que que en los snps estaba influenciado por si la empresa se comportaba de manera ética o no al final. 

Bueno, a mí hay una frase que me gusta mucho que es que la ética nunca te va a hacer ganar dinero, pero te puede ahorrar mucho dinero. Es decir, al final digamos que yo soy una pequeña, una mediana empresa pues debo establecer unos principios éticos. 

Nos olvidamos de la IA por un momento y en esos principios éticos, pues no sé, la honestidad o la transparencia o digamos el el pues no lo sé, él no trabaja con menores, ese tipo no, eso ya es regulación porque está prohibido, pero ese tipo de comportamiento o la sostenibilidad, por ejemplo relacionada con la ética.

Pero ya si vamos a la Inteligencia Artificial, si yo soy una empresa de marketing que va a generar una campaña de marketing que sé que va a crear una determinada adicción, tengo que lanzar esa campaña de marketing, la voy a lanzar. 

Bueno, me tengo que plantear esa serie de cosas o quiero ser transparente con mis algoritmos de Inteligencia Artificial. Si estoy siendo una empresa de contratación.

Por ejemplo, yo creo que al final es verdad que las empresas medianas pequeñas tienen menos recursos, pero también es verdad que al final, ahora mismo en la era de del entorno digital en el que vivimos, los clientes tenemos mucho poder en hablar bien o hablar no tan bien de esas empresas. Y yo creo que el riesgo reputacional, tengas el tamaño que tengas, es muy importante. De hecho, una empresa mediana pequeña puede terminar con ella totalmente.

 

EC: Mónica, en términos prácticos, ¿cómo se puede asegurar esta transparencia y sobre todo la responsabilidad en los sistemas de Inteligencia Artificial?

 

MV: Bueno, como te decía antes, no es sencillo. 

Al final, cuando estamos empezando a utilizar algoritmos como GPT basados en redes neuronales, las redes neuronales por definición son cajas negras y la aplicabilidad que tienen las redes neuronales son bastante limitadas.

Es verdad que como es un problema que lleva tiempo, desde el 2016/2017, está habiendo mucha investigación para utilizar diferentes técnicas. No hay algoritmos como Lime, como SAP, que me permiten, simulando con algoritmos más simples o con teorías matemáticas como haces al final lo que trato es de intentar ver lo que está pasando dentro de esas redes neuronales también.

Bueno, pues hay otro tipo de métodos, están avanzando esas técnicas de explicabilidad, pero fíjate que en las redes neuronales con 7,8 millones de parámetros, pues es que es imposible saber qué es lo que va a decidir la la red neuronal, pero si vamos al tema de olvidándonos de que estos sistemas no van a ser explicables y que va a ser complicado tener esa, esa transparencia, al final vamos al tema de responsabilidad. Al final tengo que asumir esa responsabilidad de quién está tomando la decisión. Veíamos al principio que la ética es importante para, yo creo que para nuestro día a día en general, olvidándonos de la tecnología.

Cuando hablamos de tecnología para tecnología que decide por nosotros, cuando estamos hablando de Inteligencia Artificial, yo diría que hay que dejar al humano en el loop es el human in the loop este que llamamos pues, por ejemplo estoy recomendando una película, no necesito un humano. En el loop no hay una decisión tan relevante, pero cuando en un momento determinado imagínate que estoy haciendo una detección de tumores en unas manchas, por ejemplo, es muy importante que el algoritmo me ayude y ven mejor que nosotros, y la Inteligencia Artificial puede ser mucho más precisa en los temas de visualización. 

Pero lo que al final quiero es que haya una persona y en este caso un médico, no me vale cualquiera tiene que ser una persona experta en la materia en la que estamos hablando, que sea la que de alguna manera revise. Si finalmente esa mancha es cancerígena o no cancerígena, no como está proponiendo el algoritmo, o me pasaría con una campaña de marketing.

Al final estoy lanzando una serie de una serie de. Hizo una serie de mensajes y al final se nos cuela un mensaje. Bueno, pues que a lo mejor es sexista o a lo mejor tiene sesgo si nadie lo ha revisado.

Al final eso me puede crear un impacto y al final, ¿quién es responsable? 

Le echamos la culpa al chat, yo creo que es importante el tema de entender la responsabilidad de la Inteligencia Artificial que nos va a ayudar a ser más productivos. 

Lo podemos tener como guía, como copiloto, digamos como acelerador, como aumentar nuestras habilidades, como ayudarnos a aumentar nuestras capacidades. Pero ojo que la responsabilidad tiene que seguir siendo nuestra. No sé si recuerdas aquel abogado el año pasado, me parece, o si a finales del año pasado que en un juicio utilizó una serie de buenas, pues de de otros juicios. 

En abogacía sabemos que se utilizan mucho otras sentencias, y cuando le dijeron que no existían, al final lo había hecho con chat GPT y no se le ocurrió otra cosa que culpar no a la persona o al según él, decía que era un becario que había trabajado con GPT.

Bueno, pues aquí está la prueba, al final esto fíjate para esa empresa de abogados el daño reputacional, porque al final te puedes ayudar de este tipo de herramientas, pero al final la decisión y la responsabilidad siempre es personal.

 

EC: Totalmente de acuerdo. De hecho, esta siguiente pregunta yo creo que va muy alineada y es algo que nos preocupa como compañía, en este caso como grupo, pero también a nivel personal. Bastante, y es cuál es el papel que tiene que tener la educación y la concienciación pública, sobre todo en la promoción de una Inteligencia Artificial ética. ¿Cómo lo ves?

 

MV: Totalmente de acuerdo al final. Bueno, pues ética y regulación son cosas muy distintas. Ya lo habíamos visto. 

No se puede regular absolutamente todo, pero si tiene que haber, yo creo una mínima base, no un best line o como queramos llamarlo, donde al final bueno, pues haya ciertos límites que no se crucen, pues por ejemplo en China es muy común el tema del social scoring, el que te etiqueten en tu comportamiento social y que en base a eso pues una serie de etiquetas. 

Luego vayas a pedir algo al estado, y no te lo concedan simplemente por por ese social scoring.

Entonces yo creo que ahí Europa igual que lideró y fue muy criticada en el tema de la privacidad de la Ley de privacidad, el GDPR. Y luego hay multitud de países que han copiado o que han utilizado como base. La regulación europea yo creo que se ha hecho un esfuerzo muy grande en en bueno, pues estar prácticamente cuatro años o casi cinco años en el desarrollo de esa de esa ley. 

El primer borrador empezó en 2018, incluía principios como el respeto a la autonomía humana. El evitar los daños y por ejemplo, la explicabilidad y la equidad, y eso se ha ido traduciendo en una legislación en base a riesgos. Al final, los riesgos que los temas que van a estar completamente prohibidos va a ser uno entre ellos el que mencionaba de social scoring y desde ahí pues hasta hasta aquellos que simplemente van a ser aceptados.

Es decir, aquella recomendación de películas que veíamos, pues no va más allá o la recomendación de que utilicemos un camino u otro en un navegador. 

Pero claro, aquí al final sigue habiendo también esas discrepancias de, por ejemplo, ha habido muchas discrepancias en el tema del terrorismo. Es decir, como al final tiene que haber una autorización judicial para que te puedan seguir las imágenes en las redes. 

Pero claro, otros países han llegado a un acuerdo y ahora mismo está prohibido que se utilicen esas imágenes, si no hay una, si no hay una orden judicial, pero hubo muchas discrepancias porque al final bueno, pues el el terrorismo desafortunadamente en países hay países a los que les afecta más que a otros y algunos de ellos pues pues prefieren utilizar las esas cámaras, aunque atente un poco con la privacidad para poder salvar, no a otros no, y esa era un poco su argumento. 

Entonces yo creo que al final tiene que haber ese marco de regulación para que de alguna manera pues haya comportamientos, esos comportamientos ya no diría bueno, diría éticos, pero al final comportamientos más alineados con con los valores que tenemos, en este caso no. En Europa, al final, a mí siempre me gusta decir que él es la regulación o en este caso la ética. Al final es como el freno que llevamos en los coches, pero no por el propio freno de frenar la innovación o por el propio freno que siempre se achaca.

¿No? Cuanto más regulamos, al final paramos la innovación, todo lo contrario. 

Al final a mí me gusta ver el freno en el coche, que yo puedo ir a la velocidad que yo quiera, puedo ir más rápido, más lento, pero cuando en un momento determinado tengo que tomar una, una decisión de qué debo hacer o que no debo hacer, pues tengo la seguridad de poder frenar en un momento determinado no poder utilizar ese ese freno. Yo creo que no va a servir de mucho si solo regulamos en Europa, de hecho en. 

Bueno, pues en esta reunión que hubo en Inglaterra, en el Reino Unido, no propiciada por el primer Ministro y en el que estuvieron todos los grandes países y los líderes de muchas tecnológicas. Yo creo que hubo una declaración de intenciones, no de que esto se trata de un tema global al nivel de la energía nuclear. Y quiero pensar, yo suelo ser optimista, quiero pensar que bueno que vamos a llegar a un acuerdo a ese nivel. China sigue yendo por su cuenta, Estados Unidos también, pero ha habido ciertas regulaciones o bueno, no tan no tan extensiva o tan exhaustiva como la europea, pero sí que ha habido ciertas ciertas leyes que se han proclamado ahora en Estados Unidos acerca de del tema de la Inteligencia Artificial y que antes no existían. Y esto ha sido a raíz un poco de esa influencia, yo creo.

 

EC: Saltando también a otro tema muy conectado para mí personalmente con la educación es también con aspectos culturales y éticos en este ámbito. Y me gustaría saber cómo crees que aquí la ética de la Inteligencia Artificial puede abordar los dilemas morales. Muchas veces en situaciones donde los valores culturales y éticos, y la verdad que varían ampliamente.

 

MV: Bueno, ver esto es siempre la mayor dificultad. 

Al final es lo que comentábamos, no tenemos partes comunes o no tenemos parámetros comunes. Pero fíjate que al final los principios éticos tienen mucho que ver con los derechos humanos, la justicia, la equidad, la no discriminación. 

Otra cosa es que haya países firmantes de esos derechos humanos que no lo están respetando, pero yo creo que en como en casi todo, yo creo que la formación es clave. 

La UNESCO publicó un documento hace ya más de año y medio en el que hacía una recomendación a todos los países de cómo debía ser la Inteligencia Artificial, de cómo se debían establecer esa serie de principios, evidentemente no es ningún mandato, sino una recomendación.

Y bueno, pues Europa lo está articulando en una regulación muy alineada con esas recomendaciones y otros países. Entonces, yo creo que es muy importante la formación. 

Fíjate en Estados Unidos, en el MIT, que hace muchas cosas relevantes acerca de educación, pues hacían workshops con niños para que entendieran la importancia del pensamiento crítico y la importancia de los sesgos de la del cómo la Inteligencia Artificial al final decide o ese diseño de algoritmo puede estar lleno de sesgos, como comentábamos antes, y les hacían un ejemplo muy, muy divertido en el que decía bueno, pues como eran niños, pues vamos a hacer un algoritmo para que nos haga el mejor sándwich de mantequilla de cacahuete y mermelada.

Y cuántas capas le pondrías, cómo harías el sándwich, cuánta cantidad le pondrías , y algunos de los niños preguntaban.

Pero el sándwich mejor para cualquiera. O el mejor para mí. Bueno, pues al final alguno ahí era precisamente el punto. 

No entender si al final esa esa estás metiendo tu propio sesgo. En ese diseño del algoritmo o como veíamos con el tema de los datos, no, pero yo creo que al final todos. 

Yo no me atrevo como tecnólogo a decir cuándo llegará aquella Inteligencia Artificial general, como hablamos en muchos casos, porque bueno, pues hay muchas variables.

Y pero sí me atrevo a decir que en cinco años la mayoría de nosotros estaremos trabajando el 50% de nuestro tiempo, o incluso más con Inteligencia Artificial, como si fuera un asistente más nuestro y por eso yo creo que es importante aprender a utilizarla y aprender a utilizarla con esos principios éticos, independientemente de lo que la regulación nos diga, porque al final, bueno, pues hay muchas cosas que nos puede hacer. Yo en otra charla que estaba el otro día me preguntaban no en alumnos de la universidad me decían no, es que he abierto el template del TFM y me dice prohibido usar chatgpt.

Claro, el que le digas a alguien prohibido usar algo, quizá muchas veces incluso alienta no hasta el que el que el que lo uses, pero al final lo que lo que yo le decía al final tú vas a responder por lo que hay en el TFM, que puedes ayudarte por por chatgpt para buscar toda esa documentación para que te la resuma, para que puedas ayudarte a leer documentos o encontrarlos más rápido. 

Pero al final lo que va a ir en el TFM es tuyo, y bueno, muchas revistas científicas están empezando a incluir o a dejar que se incluya. En esa Inteligencia Artificial como referencia o a ver, el periodista de hoy no va a ser el periodista del mañana, va a ser un periodista aumentado con Inteligencia Artificial o el médico, como veíamos antes, el ejemplo.

Entonces, yo creo que al final yo creo que el secreto bueno, pues está en la educación como siempre, no en esa formación y en ese día a día que todos sabemos que tenemos que continuar formándonos hasta hasta que yo creo que aprendemos todos los días.

 

EC: Mónica, para cerrar, me gustaría rescatar un poco desde un ámbito ahora un poco más práctico, una empresa que trabaja con Inteligencia Artificial en sus productos y en sus servicios, ¿cómo debería de asegurar que está aplicando principios éticos?

 

MV: Bueno, estoy trabajando ya con algunas de ellas para establecer esos principios éticos y bueno, yo creo que es importante primero darte cuenta de que necesitas establecer estos principios éticos de la IA como un marco.

Al final tienes ese marco y dices voy a decidir que mis principios éticos son la transparencia o la explicabilidad, o la privacidad o la equidad. 

Y a partir de ahí voy a llevarlos a toda mi organización. Cómo hago para operacionalizar en el día a día, bueno, en primer lugar tengo que saber qué es lo que estoy haciendo, no con Inteligencia Artificial.

En qué tipo de casos de uso estoy utilizando en mi empresa y lo que se hace normalmente y en lo que estoy trabajando con muchas empresas es bueno pues generar esa serie de formularios o checklists o bueno, pues como queráis llamarlo, en el que me voy haciendo una serie de preguntas sobre los casos de uso que estoy utilizando, si conozco los datos, si sé con qué se ha entrenado, si tengo claro la equidad, si sé quién es el responsable del sistema. 

Bueno, pues preguntas sencillas que me pueden ayudar a levantar determinadas alertas. De qué estoy haciendo con mis datos o qué estoy haciendo con una determinada aplicación.

Y al final, bueno, pues también las empresas deben tener esa formación de IA ética a sus a sus empleados, no solamente de cómo funciona la IA en el término tecnológico, sino el saber, las implicaciones que puede tener y el saber hasta dónde llegan esas herramientas.

Eso se incluye también para generar, para ser capaz de operacionalizar todas esas, todos esos principios éticos a lo largo de la organización, tiene que formar parte de la cultura. 

Al final todos sabemos que la tecnología quizá es más sencilla.

El una herramienta tecnológica aprendo a manejarla y bueno, me costará más o menos trabajo, pero el imbuir la cultura en las organizaciones cuesta tiempo, entonces yo creo que hay que dedicarle tiempo, pues desde los principios éticos hacia esos casos de uso que te decía a esa formación y bueno, pues también una serie de gamificaciones que estamos haciendo en el que bueno, pues lo que se pretende es utilizar esas herramientas, no se hace bueno pues una serie de concursos con con los empleados o con la plantilla para ver cómo están utilizando esas herramientas y cómo están encontrando ese ese punto ético para para utilizarlas.

 

EC: Muchas gracias. Muy interesante Mónica, sobre todo esto último porque no es tan evidente y me encanta que lo hayas puesto como ejemplo práctico. Dejaremos los datos del podcast. 

Dejaremos tu contacto para aquellas personas empresas que quieran contactar con Mónica en este aspecto, porque no es algo nuevo desde un punto de vista de concepto, pero sí que es algo nuevo como parte de la concienciación que tenemos que tener como personas y como sociedad y como empresas, por supuesto. Así que, Mónica, muchísimas gracias por el tiempo que nos has dedicado hoy. La verdad es que ha sido una maravilla ver el despliegue de conocimiento desde diferentes ángulos del por qué la ética dentro de la Inteligencia Artificial es relevante, cómo funciona y sobre todo cómo, cómo las personas impactamos o podemos impactar en primera instancia. Así que un lujo.

 

MV: Muchas gracias a vosotros y nada, encantada. Gracias.