Por Sebastián Urbina, equipo de inteligencia artificial en Genpact
12 abril, 2023

Nuestras vidas en los siguientes años van a ser transformadas por la inteligencia artificial de maneras significativas y evidentes. Esta transformación digital ha cambiado el mundo y nuestros comportamientos, sin que entendamos totalmente el fenómeno. Sin embargo, estos algoritmos no son humanos, son máquinas que no logran igualar la forma en que la mente humana lee el contexto. Se requiere que volvamos a tener el control de estas nuevas tecnologías a través de una estrategia definida para maximizar las oportunidades y minimizar los riesgos.  

Las políticas públicas y sus planes estratégicos juegan un papel crucial para garantizar que la implementación y el desarrollo de estas tecnologías se realicen de manera equitativa, ética y sostenible. Por tanto, hay que considerar cómo incorporar la inteligencia artificial dentro del funcionamiento del gobierno, tomando en cuenta las implicaciones para la sociedad.

El avance de herramientas conocidas como chatbots al estilo de ChatGPT están creando una posibilidad enorme para la transformación digital de los gobiernos. Es una herramienta que puede transformar la forma en el que la ciudadanía accede a la información del gobierno. Se puede convertir en un repositorio central de información donde de manera natural, cualquier persona puede hacer una pregunta y recibir la respuesta.  

Actualmente la forma en que la ciudadanía accede a este tipo de información es altamente ineficiente: 1. Preguntan a los amigos, esperando que alguien sepa,  2. Revisan en internet que muchas veces implica entender reglamentos complejos y legalistas, 3. Solicitando ayuda en redes sociales con la suerte de tener algún seguidor experto, 4. Ir físicamente a una oficina del gobierno, invirtiendo tiempo para acceder la información o 5. Pagándole a un abogado o tramitador para que le ayude con un servicio que debería ser gratuito.  

Un chatbot cambiaría el proceso radicalmente ya que permitiría encontrar cualquier pregunta en un mismo lugar.  En el mismo sitio se podrían preguntar cosas como: “¿Cuál es el proceso para inscribir un pozo?”, “¿Puedo deducir un almuerzo de mis impuestos?”, “¿Cómo proceso una pensión por muerte?”, “¿Cómo puedo adoptar un niño?”.  Todas preguntas importantes que un chatbot bien entrenado podría generar como una lista de pasos específicos para la persona.  El mismo sistema podría incluso realizar una revisión previa de los documentos preliminares para identificar errores o vacíos en una aplicación antes de ser entregada a la administración.  Podría recopilar toda la información relevante del usuario para poder guiar en el caso específico de la persona.  Esencialmente puede ser una ventanilla de atención al cliente, virtual, con acceso a todos, que conoce de cualquier servicio.  

Aunque un chatbot suena maravilloso sí tiene sus problemas.  Esta tecnología no es perfecta, se equivoca.  En el caso de una solución de gobierno ¿qué pasa si se equivoca y guía a un administrado de manera errónea?  ¿Quién es culpable?  ¿Puede demandar al estado por hacer algo incorrecto? Pensemos en una mala declaración de impuestos.  ¿O puede el estado culparlo por actuar mal y multarlo?  Adicionalmente los reglamentos y procedimientos pueden cambiar en cualquier momento.  El chatbot va a tener que estarse constantemente entrenando con la última información.  Va a tener que estar “leyendo” La Gaceta de manera diaria.  Este re-entrenamiento no es sencillo y requiere una capacidad computacional importante.  ¿Quién debe asumir ese costo?  ¿Tiene el estado la capacidad para poder ejecutar ese re-entrenamiento o estaríamos tercerizando una herramienta que se puede volver clave para la ciudadanía?  Los detalles de la implementación son complicados, y hay que llevarlos con cuidado, podría incluir cambios en la ley o en decretos.  Pero esos detalles no deberían disuadirnos de implementar tecnologías que transformen el estado.  

El éxito y desarrollo de estos y otros modelos de inteligencia artificial en los últimos años se debe, entre otras cosas, a dos factores importantes, disponibilidad de data y mejoras en el poder de procesamiento de computadoras.  La cantidad de datos que se ha generado en los últimos años ha permitido entrenar estos modelos.  En particular el uso de esos datos masivos es que crea necesidades de intervención del estado para regular su entrenamiento y configuración particularmente en temas de ética y propiedad intelectual.   

La aplicación y construcción de estos modelos puede crear resultados sesgados que deterioran su aplicación justa y equitativa.  Por ejemplo, en el 2015 Google en su aplicación para identificar objetos clasificó a una pareja afro como gorilas.  En el 2021, Facebook sufrió de lo mismo al recomendar ver más videos de primates al ver un video de personas afro.  En el 2022, Apple fue demandado porque el oxímetro de su Apple Watch subestima el nivel de oxígeno a gente de tez oscura.  Claramente en estos casos esto demuestra un sesgo y hasta cierto nivel de racismo.  Es evidente y sostenido en el tiempo.  Pero fácil se pueden imaginar casos que no son tan evidentes como:  1. Recomendaciones de a quién contratar, 2. Decisiones de a quién admitir a programa de educación, 3. Definir a quién se le debe dar una beca o asistencia como Avancemos, 4. A quién asegurar.  Fácilmente podemos imaginarnos que un modelo esté discriminando a alguien.  Esto puede provocar que una mujer no pueda ser admitida a una carrera en STEM  sólo porque en los datos históricos hay muy pocas mujeres en el programa.  

Esto generalmente no ocurre de manera intencionada sino que es producto de cómo se manejan los datos.  Primero es el sesgo en los datos, estas bases de datos están basadas en información disponible que no necesariamente representa de manera adecuada la sociedad.  Es muy posible que existan sectores que estén sub representados, ya sea porque históricamente no han participado o porque el proceso de recolección de datos los ignoró (pensemos encuestas en universidades).  La segunda fuente proviene de utilización sensible.  Por ejemplo, permitir que un modelo de seguro de vida utilice la identidad de género como uno de los factores a considerar.  Pero quién es el responsable del sesgo del modelo, la persona que recolectó los datos, la persona que creó el modelo o la persona que utilizó los resultados.  En muchos casos pueden ser tres personas que no se conocen ni tienen idea de los detalles de lo que están haciendo.  Este es un punto de inflexión importante, pues está pendiente una discusión amplia sobre qué es lo éticamente correcto, quién debe ser el responsable y cuál es la intervención necesaria por parte del gobierno.  

La creación de estas bases de datos también genera otro serio problema.  Como mucho fue académico se empezó a consolidar lo que estuviera disponible, todas las imágenes, textos, audios etc. que existen.  Un proceso que ignoró los derechos de propiedad intelectual.  Para entrenar modelos de lenguaje, utilizaron todo Wikipedia, pero también artículos de periódicos, revistas, blogs etc.  Mucha esa información fue utilizada sin el consentimiento de quien la publicó y creó originalmente.  Esto genera una gran disyuntiva porque estos modelos están generando ganancias importantes, pero no hay retribución a quienes ayudaron a crearlos.  Lo mismo pasa por ejemplo en música.  En el 2020, openAI saco JukeBox, que tiene la capacidad de generar música nueva al estilo de un artista en particular.  Las notas y las letras son nuevas, pero fueron generadas porque el modelo conoció toda la música.  ¿Esa canción nueva es válida? ¿Está protegida por derechos de autor?  Una canción al estilo de Taylor Swift, ¿le pertenece a Taylor Swift?  El tema es tan complicado que Adobe en marzo 2023 sacó una nueva plataforma de generación de imágenes a base de descripciones de texto y entre su descripción dice que lo creó sin robarle nada a artistas.  Es decir, que solo entreno el modelo en datos que 1. Están en el dominio público 2. Al que tenían acceso de reproducir legalmente.  La evolución es compleja, porque no solo es un tema de lucro, sino también de pertenencia de datos.  ¿Qué pasa si no quiero que mi información, mi propiedad intelectual sea apropiada para entrenar modelos de compañías con fines lucrativos?  Es una discusión amplia y necesaria.  No podemos mantener una postura simplista que los datos para entrenar no están protegidos.

El tiempo que vivimos es sumamente emocionante, se vienen cambios radicales que van a transformar nuestras vidas.  Sin embargo, sí existe una responsabilidad de tipo gubernamental de incorporar dichas tecnologías en sus servicios y a su vez garantizar que los beneficios sean accesibles y amplios a todos sin que se violen los derechos de ninguno.

Los contenidos publicados expresan la opinión del autor y autora, y no necesariamente la visión de la Fundación Konrad Adenauer.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Recientes

Buscar

Search