portada

Cecilia Danesi y Pablo Gentili hablaron sobre Inteligencia Artificial en Rayuela

Comentarios desactivados 30

Cecilia Danesi, abogada especializada en Inteligencia Artificial, Derecho y Género, y Pablo Gentili, Secretario de Cooperación Educativa y Acciones Prioritarias del Ministerio de Educación, estuvieron esta semana en Rayuela.

El tema principal fue la Inteligencia Artificial (IA). Según UNESCO, podría ayudar a la humanidad a superar muchos problemas sociales graves, pero plantea al mismo tiempo una serie de desafíos complejos, sobre todo en materia de ética, de derechos humanos y de seguridad. ¿Cuáles son sus principales riesgos para la ciudadanía? ¿Cómo puede la educación abordar los desafíos que plantea la IA?

Cecilia Danesi, creadora de la primera asignatura sobre IA de la Facultad de Derecho de la Universidad de Buenos Aires, señaló que “es una materia interdisciplinaria. Estudiamos la IA pero también otras disciplinas como la filosofía ya que hay muchas cuestiones éticas vinculadas al desarrollo de este tema. Otra característica es que la instancia de evaluación no es un examen sino que es un trabajo de investigación que implica un proceso de elaboración por parte del estudiante en el cual relaciona un sistema de IA con el área del derecho que más le guste. Es un espacio para que el alumno despliegue su creatividad”.

¿Existe una definición unificada acerca de qué es la IA? La especialista indicó que aún no hay consenso sobre ello y enumeró las razones: “En parte es por su crecimiento exponencial. Y además por ser una disciplina interdisciplinaria.” Agregó que “para entender su funcionamiento, la IA hace predicciones del futuro en base datos del pasado. Hay muchos datos que son procesados por un algoritmo y eso arroja una predicción”.

Respecto al avance constante en cuanto a lo que conocemos de este tema, la abogada aseguró que “es más fácil que me pregunten cuáles son las áreas del derecho en las que no se puede aplicar la Inteligencia Artificial que las que sí”. Y agregó que “todos los días se van corriendo los límites. Su crecimiento exponencial nos lleva a que día a día busquemos una noticia sobre IA y veamos que una cosa que el día anterior no podía ser, ya lo empieza a ser. Por ejemplo, las cámaras con reconocimiento facial que pueden identificar a una persona. Primero necesitaban ver el rostro entero pero ahora ya hay cámaras que pueden reconocer a una persona con barbijo”.

Como decíamos, la IA se nutre de datos para realizar predicciones. Y es en su modo de utilización, a través de algoritmos, donde reside uno de los principales riesgos de esta cuestión: “Estamos entregando toda nuestra privacidad e intimidad. Nuestros correos electrónicos, conversaciones en Whatsapp, likes de Facebook, fotos, etc. Los datos son el petróleo de esta era. Tienen muchísimo valor y son los que se utilizan para desarrollar estos sistemas de IA”, subrayó.

Vivimos en un momento de total incertidumbre acerca de cuál es el alcance y cómo se aplican las normas a estos sistemas”, alertó Danesi. “El primer problema que tenemos es que la mayoría de las personas no saben que están interactuando con un sistema de IA. En las redes sociales, los algoritmos son los moderadores del contenido. Todo lo que vemos es digitado por un sistema de IA”.

Por último, Danesi dio su opinión respecto a la vinculación entre las cuestiones de género, una de sus áreas de estudio, y el avance de la Inteligencia Artificial: “La IA tiene el poder de afianzar y agrandar las brechas existentes. las desigualdades. Esto es un peligro muy grande que tenemos como sociedad, que tenemos que estudiar y frenar porque puede ocasionar un daño terrible sin siquiera darnos cuenta. Tenemos que tener una mirada más alerta cada vez que interactuamos con las redes sociales”.

Pablo Gentili, Secretario de Cooperación Educativa y Acciones Prioritarias del Ministerio de Educación, fue el segundo entrevistado de la noche. Acerca de la Inteligencia Artificial, aseguró que “es un tema central que está presente en nuestra vida y en las acciones más cotidianas, aunque muchas veces no nos demos cuenta”. Y señaló que “es un problema sobre el cual los ciudadanos y ciudadanas tienen mucho que opinar aunque no sepan muchas cosas de tecnología. Todos usamos la IA pero la consideramos como un problema de grandes especialistas”.

En agosto del 2020, la UNESCO llevó a cabo la primera consulta de expertos con el fin de generar un documento normativo que sirva de asesoría para los gobiernos del mundo, a la hora de diseñar políticas públicas que contemplen este avance de la tecnología. ”Desde el Ministerio de Educación, y particularmente desde la UNESCO, hemos querido mostrar que la IA es un problema público. Además de las cuestiones tecnológicas más sofisticadas de la innovación, la Inteligencia Artificial tiene implicaciones muy serias y directas en nuestras relaciones sociales. Es muy importante poner este tema en el debate”.

Respecto a la presencia de este algoritmo en la educación, Gentili, Doctor en Educación, sostuvo que “en nuestras escuelas, por la fuerza de la pandemia, se han impuesto mecanismos de educación virtual que utilizan dispositivos electrónicos mediante los cuales acceden a plataformas que son controladas por grandes corporaciones y nos permiten, mediante la IA, hacer asociaciones, reconocer cuáles son nuestros intereses, preocupaciones, etc. Se establecen una serie de opciones de consumo pedagógico que, cuando la escuelas funcionaban en términos presenciales, las hacían los docentes. Pero ahora las harán las propias plataformas”.

Los peligros de estos mecanismos son muy concretos. Así lo explicó el ex secretario ejecutivo del Consejo Latinoamericano de Ciencias Sociales (Clacso): “En las redes sociales hay una sensación de que nosotros elegimos qué es lo que vemos, pero lo que vemos y consumimos es  lo que nos va apareciendo. Esto, en la educación, es un riesgo. porque la educación es un proceso mediante el cual uno tiene que poder enfrentarse, confrontarse, con conocimientos, saberes nuevos, opiniones diferentes. Lo que debemos aprender en el sistema educativo es a mirar el mundo desde muchas formas diferentes y estos algoritmos funcionan, no produciendo diversidad, sino homogeneidad”.

Si nuestros niños y niñas solo encuentran en las plataformas con dispositivos pedagógicos aquello que más les gusta corremos el riesgo de sesgar, de segmentar muchísimo la formación. En vez de ampliar los horizontes de conocimiento, concentrarlos en aquello que estas plataformas más buscan, que es preservar el interés”, finalizó el especialista.