fbpx
contáctanos
17 de diciembre, 2019

La IA y su impacto en el sector público

Artificial intelligence

La inteligencia artificial en el sector público

La IA se está desarrollando en todos lados, seguramente, más de algunos de ustedes habrán experimentado algún uso de esta tecnología, ya sea en herramientas de reclutamiento, reconocimiento visual, predictive analytics, o casos más cotidianos como Netflix, Spotify y algunas RRSS.

El potencial de IA es extraordinario, y su éxito está más que demostrado: en más de 38 países y la Unión Europea (OECD) completa se establecieron estrategias y políticas que protegen a los ciudadanos de mal utilizarla pero que permiten su desarrollo e innovación.

Estamos a meses de implementar una política de inteligencia artificial en Chile y tal como los beneficios de esta son enormes, también lo son los problemas éticos que pueden llegar a surgir provocados por un mal uso. En este blog, hablaremos de cómo la IA puede aportar beneficios al sector público y los pilares principales en los cuales es necesario apoyar la estrategia y política orientada a esta tecnología disruptiva.

Impacto de IA en el sector público

Muchos países se encuentran actualmente en un punto del ciclo muy distinto, donde el desarrollo de este tipo de tecnología ha logrado varios avances y ha dado paso directo a mejoras en el sector público. Este tipo de innovación ha estado reservada a quienes han planteado una estrategia clara respecto a la IA. Deloitte junto a gobierno federal de Estados unidos pudieron reducir procesos de 1000 minutos a 2 minutos de duración, es decir, un 99.8% de mejora en eficiencia, el KPI llega a ser ridículo considerando que tiene un impacto directo en otras áreas como las finanzas y el costo HH involucrado en el proceso. Todo esto se logra solo con la implementación de un BOT capaz de chequear emails, transferir data, enviar reportes financieros, entre otras funciones y todo a través de la IA y tecnología RPA (Robotic process automation).

No solamente está siendo utilizada para mejorar tiempos o procesos internos del sector público, sino que ha sido un factor clave para obtener respuestas más certeras dentro de contextos de importancia mundial como lo es el consumo de energía de la población. En el Reino Unido, país que ya cuenta con una estrategia definida, se ha utilizado Clustering (algoritmo no supervisado de clasificación) para poder detectar patrones en el consumo energético de la sociedad y llegar así a Smart-heat, tecnología que utilizaría esta información para distribuir de mejor manera los recursos del gobierno inglés.

A pesar de que muchos países ya han decidido regular y establecer políticas para este tipo de tecnología, llegan ser muy distintas. En octubre de 2016 la Casa Blanca anunció la primera estrategia planteada para resolver los desafíos sociales presentes con el uso de la IA. Se centran en la responsabilidad de la investigación en este campo e incentivan un mínimo de regulación para incentivar la competencia e innovación del mercado privado.

Por otro lado, el gobierno inglés ha centrado sus políticas desde el 2018 en la utilización de esta herramienta como un componente fundamental de robots inteligentes, pues dentro del mercado de la IA existen varios subgrupos de tecnología, siendo el nivel de desarrollo de esta variable según país.

Resultado de imagen para artificial intelligence product curve

Sin embargo, hay un punto en común en todas las políticas que se desarrollaron o están en proceso de: el margen ético de la inteligencia artificial y la responsabilidad del sector público en el desarrollo de la herramienta. Pero antes de adentrarnos en un tema que sigue siendo debatido internacionalmente y que, siendo honesto, tiene múltiples perspectivas y puntos de vista, veamos alguno de los usos de la IA, tanto en el ámbito I+D incentivado por el gobierno como directamente implementado en el sector público.

 

Casos de uso en I+D y sector público

En el Reino Unido la DVSA (Driver and Vehicle Standards Agency) se encontraba interesada en utilizar un modelo potenciado por data inteligente que fuera capaz de orientar la distribución de recursos y así lograr que los estándares de la institución se mantuvieran altos. Ellos tienen la responsabilidad cada año de conducir alrededor de 40 millones de tests en 23.000 establecimientos distintos. Los examinadores de la agencia inspeccionaban los establecimientos cada 1-3 años, malgastando múltiples recursos del sector público.

A través de clustering, la técnica mencionada anteriormente para clasificar, la DVSA fue capaz de agrupar a todos los establecimientos por categoría de riesgo en cuanto al correcto seguimiento de los estándares impuestos por el ministerio de transporte. Además, la data se recolectaba cada 3 meses para mantener al algoritmo actualizado a nuevas tendencias de comportamiento dentro de los sitios.

Clasificando los grupos por grado de riesgo permitió que las visitas de inspectores de la agencia se disminuyeran en un 50% junto con mejores prácticas en los establecimientos para el seguimiento de la pauta estándar del MOT.

Resultado de imagen para clustered data

Por otro lado, el conseguir la cantidad de data suficiente para entrenar un algoritmo de calidad, puede ser una de las grandes barreras de entrada a la cual se enfrentan las start-ups de IA. Gracias a la política impuesta por USA, una compañía de Silicon Valley fue capaz de desarrollar GAN (Generative Adversarial Network), un sistema capaz de generar rostros humanos hiperrealistas de algún sexo, raza o edad específica. Para entrenar un algoritmo de reconocimiento facial el GAN podía significar un tremendo ahorro de esfuerzo involucrado para tener datos imparciales y así generar un algoritmo que este dentro de los márgenes éticos.

A pesar de ser tecnología de punta y sumamente útil, solo por el hecho de generar el rostro de una persona que no existe fue tema de debate ético, pues riesgos como el de identidades falsas hubiesen podido aumentar con gente pretendiendo ser otra persona con aspectos físicos similares. Es por esto, que muchos programadores o científicos de datos han decidido hacer el proceso de entrenamiento solamente con rostros reales, creando una mayor dificultad para obtener datos, pues la privacidad y el consentimiento con aspecto a considerar dentro de una política correcta de IA. ¿Las siguientes caras fueron generadas por GAN…o no lo fueron?

 

Por otra parte, si la IA no está regulada y contenida para asegurar el uso ético de la tecnología y garantizar la privacidad de los datos de usuarios

puede llegar a tener consecuencias

extremadamente graves. Un caso ejemplar que casi todos conocen, el famoso Cambridge Analytica, entidad que además de aprovecharse de datos de usuarios sin consentimiento utilizo la inteligencia artificial para poder generar contenido adaptable al usuario para campañas políticas, viéndose involucrada en escenario sumamente controversiales como las elecciones presidenciales de USA del 2017 o las votaciones para la noción del Brexit.

O el caso de Deepfake, tecnología que se ha vuelto popular en las RRSS, pero que tiene un impacto tremendo para ocultar lenguaje no verbal de las cámaras y en la suplantación de identidad. Esto nos lleva al tema central de todas las políticas creadas hasta el día de hoy, la definición del margen ético.

 

Estrategia y pilares de la ética en la IA

               Las prioridades respecto a este tipo de tecnología cambiarán según necesidad, por esta razón, a pesar de encontrar múltiples países que ya han adherido políticas para la regularización del mercado, el especto es bastante amplio y los enfoques de cada una de estas estrategias son distintos. Sin embargo, distintos expertos han concluido que la propuesta del sector público debe de tener:

Luego de tener estos tres pilares definidos dentro de la estrategia es hora de definir el impacto dentro del contexto de la ética. En cuanto a este punto existen múltiples puntos de vista dentro de la comunidad, sin embargo, existen tres conceptos que se encuentran presentes en las distintas visiones. El mes pasado, deeplearning.ai realizó un evento en Hong-Kong, centrado en la ética de la inteligencia artificial, Andrew Ng estuve presente, siendo una de las figuras más relevantes a nivel mundial de deeplearning, y fue en estos elementos en los que el taller se basó:

  1. Transparencia: Generar programas transparentes, explicables y entendible para usuarios finales. Hacer lo posible por recolectar data imparcial y que la funcionalidad de este algoritmo sea beneficiosa para la humanidad.
  2. Justicia: Al crear data se debería buscar perspectiva de otros expertos para ser imparcial. Al crear modelos se deberían crear visualizaciones que sean amigables con el humano.
  3. Privacidad y seguridad: Respetar siempre la privacidad y el consentimiento de la gente, apegarse a las jurisdicciones de la ley y garantizar la fiabilidad de la seguridad.

Al tener estos conceptos en cuenta, muchos de los casos más famosos que ponen en duda la ética de la IA hubiesen podido ser evitados a través de la correcta implementación de políticas que deben surgir desde el sector público.

 

Conclusión

               La inteligencia artificial tiene un sinnúmero de beneficios tanto para el negocio como para la sociedad y el sector público, empero una correcta política y estrategia debe estar definida para poder evitar un impacto negativo como lo han sido algunos ejemplos mencionados en este texto. La IA será a mi parecer esencial para poder llegar a una sociedad más eficiente, justa e igualitaria. La crisis social de Chile evidenció varios problemas, la misma ministra Karla Rubilar hizo un mea culpa diciendo que no vieron venir la rabia acumulada porque los ministerios actuaban de manera muy sectorial, todo se llevaba a números como listas de espera, costo transporte público, tasa de desempleo. Pero cada uno de estos elementos tratado de manera aislada, cada ministerio actuando por forma propia, cuando en realidad la familia chilena se mueve dentro de todos los grupos del sector público.  Alguien podía estar desempleado, en lista de espera y al mismo tiempo estar utilizando transporte público.

Este tipo de problemática no se puede resolver de manera aislada debido a la complejidad y el gran espectro que considera el sector público. La IA podrá generar soluciones mucho más avanzadas y certeras que lo que un par de indicadores aislados pueden aportar, ya que podrá considerar variables nunca antes involucradas e incluso con la capacidad del gobierno para ser un generador de data, el deeplearning podría transformar estas variables no consideradas en algunas aún más complejas, pudiendo resultar en un sistema que se adecúe realmente a la sociedad chilena. Ahora es responsabilidad del gobierno brindarnos esta seguridad y es responsabilidad nuestra seguir los pilares éticos de la comunidad para…como dice un start up que conozco…alcanzar el extraordinario.

 

Contáctanos

¡Gracias!

Hemos recibido tu mensaje y lo responderemos cuanto antes.

Por favor si no recibes respuesta en las próximas 24hrs, escríbenos a contacto@myfuture.ai

Suscríbete a nuestro Newsletter

¡Felicitaciones!

Te has suscrito con éxito a nuestro newsletter. No spam, promesa :-)