Reflexiones sobre las IA Parte 3 - Ciber - Leyes

"Durante los próximos 10, 20 años, cada ser humano, país, gobierno debería centrarse en reformar el sistema educativo, asegurándose de que nuestros hijos puedan encontrar un trabajo, un trabajo que solo requiere tres días a la semana, cuatro horas al día. Si no cambiamos el sistema educativo en el que estamos, todos tendremos problemas."
- Jack Ma, Fundador y Presidente de Alibaba Group.


En las partes previas de este articulo ya hemos hablado sobre las características. implicaciones, aplicaciones, ventajas y riesgos de los sistemas de computo basados en el modelo tecnológico conocido como Inteligencia Artificial o IA (AI), y es el momento de que revisemos las iniciativas a nivel mundial respecto de los mecanismos e iniciativas para regular el desarrollo de esta tecnología y manejar el enfoque a riesgos y sesgos de la tecnologías subyacentes, además del manejo y protección de datos, la protección del consumidor y las leyes de competencia del mercado, de manera que se puedan tener mejores mecanismos para controlar el desarrollo y uso de las tecnologías de IA.

La regulación de la IA es un tema muy complejo, y existe un acalorado debate sobre el mejor enfoque para regular el desarrollo y el uso de la IA. Uno de los argumentos indica que una buena regulación mejoraría la percepción publica sobre la seguridad y también la percepción de que los humanos podemos mantener el control. Además el de limitar los campos en los que se permitiría y en los que no el uso de la IA, a fin de impedir el surgimiento o consolidación de riesgos ya sean previstos o no.

Leyes para regular la Inteligencia Artificial

En los últimos años han surgido distintas iniciativas a nivel mundial sobre la necesidad de contar con leyes que regulen a las compañías que desarrollan, implementan o consumen tecnología de IA, a fin de establecer limites, alcances y garantías para la sociedad, respecto de la utilización de estos sistemas, Así como establecer limites a las aplicaciones practicas de los productos basados en IA por parte de los consumidores y sociedades en general. Una de ellas y quizás de las más importantes surgió en la Unión Europea, con la “Propuesta de Regulación de la Inteligencia Artificial”. Fue el 21 de abril de 2021, cuando se presentó esta propuesta también conocida como “Artificial Intelligence Act", y cuyo objetivo inicial era establecer el marco normativo común para la regulación de la inteligencia artificial en Europa. La idea es clasificar las aplicaciones de inteligencia artificial en función de su riesgo y proponer regulaciones acordes al riesgo incluyendo prohibiciones para casos específicos. En Mayo de 2023, se aprobó una versión actualizada de esta propuesta considerando los avances de los últimos meses sobre todo en ChatGPT o Midjourney, y se espera que la versión final se apruebe para finales de 2023. Entre las principales Prácticas prohibidas en esta la ley se encuentran:
  • La identificación biométrica a distancia (ejemplo, reconocimiento facial, en tiempo real, en espacios de acceso público, Algunas excepciones serían buscar a víctimas de un delito, prevención de una amenaza específica inminente para la vida o la seguridad física de las personas o de un atentado terrorista, o cuando se utilice para perseguir delitos con penas de prisión de más de tres años)
  • La identificación biométrica a distancia de forma retroactiva (la única excepción de las fuerzas de seguridad para la persecución de delitos graves y sólo previa autorización judicial).
  • La puntuación social o social scoring (evaluación de la fiabilidad de una persona según su comportamiento social o preferencias, emociones, salud o inteligencia)
  • Sistemas policiales predictivos basados en perfiles (localización o comportamientos delictivos anteriores).
  • Sistemas de reconocimiento de emociones (en fuerzas de seguridad, gestión de fronteras,  lugares de trabajo, instituciones educativas).
  • Extracción indiscriminada de datos biométricos de redes sociales o grabaciones de CCTV (circuito cerrado de televisión).
  • El uso de técnicas subliminales (alteración de la conciencia para alterar el comportamiento de una persona).
  • Aprovechamiento de vulnerabilidades (edad o discapacidad física o mental para alterar su comportamiento).
España por su parte desde el 12 de julio de 2022 ya cuenta con la “Ley Sobre el Uso de la Inteligencia Artificial” y es la primera legislación sobre el uso de la IA que busca fomentar, promover y priorizar políticas y prácticas relacionadas con el uso de las IA, y aunque no regula todos los aspectos relacionados con el desarrollo de las IA, busca posicionar a España como líder en investigación y uso de IA de manera confiable al servicio del desarrollo económico y social, pues uno de los principales objetivos de la Ley es generar confianza en el desarrollo de una IA inclusiva y sostenible, poniendo a la ciudadanía en el centro de todo el ecosistema tecnológico. Y considerando que España preside el consejo de la UE a partir del 1° de Julio de 2023, seguramente buscara impulsar la regulación sobre inteligencia artificial (IA), y convertir a la Unión en la primera región del mundo en poner reglas sobre las posibilidades y riesgos de esta tecnología.

En el caso de México, en Mayo del 2023 se presentó en la Cámara de Diputados una iniciativa para expedir la “Ley de Regulación Ética de la Inteligencia Artificial y la Robótica”, que pretende  establecer lineamientos de políticas públicas en México para la regulación ética del uso de estas tecnologías dentro del territorio nacional en ámbitos de gobierno, economía y finanzas, comercio, comunicacionales, etc. mediante la creación de Normas Oficiales Mexicanas, basadas en principios éticos, para su uso correcto y en beneficio de la sociedad, respetando sobre todo los derechos humanos, la paridad entre los géneros, y atacando la  discriminación. Esta propuesta busca además la creación del “Consejo Mexicano de Ética para la Inteligencia Artificial y la Robótica”, que sería un organismo público descentralizado.

Lideres de IA ante el congreso de USA

En semanas anteriores se presento en los medios de comunicación, información sobre  las comparecencias de los dueños y lideres de empresas que más aportan al desarrollo de las tecnologías de IA ante el Congreso de los Estados Unidos para expresar sus preocupaciones respecto de los riesgos y peligros potenciales que los sistemas de IA, representan para la humanidad, y solicitar la regulación de la IA. Algunos de los riesgos y preocupaciones planteados incluyen:


Riesgos para la privacidad y derechos humanos

La IA implica realizar y almacenar una recopilación masiva de datos personales, respecto de gustos, preferencias, consultas, navegación, viajes, compras, etc. y esto genera preocupaciones muy serias y reales sobre la privacidad de las personas, ya que los algoritmos de análisis de la IA pueden ser utilizados no solo para publicidad y marketing, sino para la vigilancia masiva bajo el argumento de seguridad publica, o para la toma de decisiones automatizadas que afecten los derechos humanos.

Sesgos y discriminación

Debido a los grupos de datos y modelos de comportamiento utilizados en los procesos de entrenamiento de cada sistema de IA, se pueden presentar en los algoritmos operativos algunos sesgos que pudieran perpetuar la presencia de prejuicios y discriminación. Por lo que las IA, al menos hasta ahora no están exentas de presentar consecuencias injustas o discriminatorias en el otorgamiento de servicios, participación social, contratación laboral, acceso a la justicia penal o incluso a la distribución de recursos.

Desplazamiento laboral

De la misma manera que ha ocurrido con los cambios disruptivos en los modelos productivos y sociales de manera histórica, la IA traerá consigo el reemplazo laboral de distintas posiciones laborales, pues la automatización de mucho puestos el día de hoy, seguramente resultara en la pérdida de empleos en ciertos sectores, lo que puede tener un impacto significativo en la fuerza laboral y la economía en general de manera inmediata, pero al igual que en las revoluciones industriales y productivas del pasado, seguramente esos empleos terminaran desplazándose a nuevas posiciones y puestos que hoy todavía no existen. Por lo que el verdadero peligro esta en que la gente no entienda debidamente hacía que moverse con los cambios que la IA traerá a los campos laborales.

Riesgos éticos

Desde que la humanidad logro la conquista del fuego y aprendió a desarrollar herramientas, estas han terminado inevitablemente convirtiéndose también en armas, demostrando reiteradamente que cualquier avance tecnológico o descubrimiento científico, tiene esa dualidad de ser al mismo tiempo tanto una herramienta, como un arma. De la misma manera, la IA no escapa de personalizar a la Espada de Damocles dependiendo de quien la esgrime y las intenciones que ostente. Pues como cualquier tecnología siempre se plantean preguntas éticas complejas, como la responsabilidad y la rendición de cuentas en casos de decisiones autónomas tomadas por sistemas de IA o de quienes la desarrollaron, y por supuesto considerar los dilemas de cómo lograr un equilibrio entre la innovación tecnológica y la protección de los derechos humanos y los valores éticos fundamentales y sobre todo asegurando el no abuso del poder de esta tecnología para propósitos particulares ya sea de personas, empresas o naciones.

Podemos apreciar que las comparecencias de los dueños de empresas en tecnología ante el Congreso de los Estados Unidos han contribuido a generar conciencia pública sobre los desafíos y riesgos asociados con la inteligencia artificial, y han logrado despertar el interés de la gente en esta tecnología y nos han llevado a un mayor debate sobre la importancia de tener regulaciones para abordar estos problemas. Es importante resaltar que aunque existen importantes acciones que pretenden establecer mecanismos legales en distintos países, no podemos bajar la guardia y debemos insistir en que no solo los gobiernos actúen, sino que las organizaciones y publico en general nos involucremos en vigilar y cuidar que esta tecnología no resulte objeto de abusos y explotación inapropiada de la información, púes es obvio que pase lo que pase con las regulaciones legales, la IA seguirá moviéndose, seguirá evolucionando y su penetración en nuestra vida diaria ya no se detendrá, ni retrocederá, sino que continuara avanzando y penetrando más y más aspectos de nuestra vida.

Conclusiones:

¿Regular legalmente el desarrollo de aplicaciones de IA?
¿Quién necesita normas y regulaciones para asegurar la calidad de datos, transparencia y  responsabilidad en el uso de IA?
Es obvio que podemos confiar en que los gobiernos, empresas y los desarrolladores se autorregularán de manera perfectamente moral y ética y no buscaran abusar indiscriminadamente del uso de IA.
Después de todo, ¿Qué podría salir mal cuando se trata de algoritmos que influyen en nuestras vidas y decisiones importantes?

Pero poniéndonos serios y fuera de ironías, es importante reconocer los riesgos y desafíos asociados con la IA, así como la necesidad de regulaciones para garantizar su uso ético y responsable. En los próximos 5 años, la IA seguirá transformando diversas áreas de nuestras vidas. Veremos avances emocionantes en distintos ámbitos, como por ejemplo el de la medicina, con diagnósticos más precisos y tratamientos personalizados. O revolucionando la movilidad, con vehículos autónomos que mejorarán la seguridad y eficiencia del transporte. Además, se espera que la IA tenga un impacto significativo en la lucha contra el cambio climático, optimizando el uso de recursos y promoviendo la sostenibilidad. Solo por mencionar algunos ejemplos.

Lo que es realmente un factor decisivo y muy tangible, es que la colaboración entre humanos y máquinas será clave en este nuevo mundo impulsado por la IA. Juntos, podemos utilizar el poder de la inteligencia artificial para resolver desafíos complejos, mejorar nuestra calidad de vida y promover un futuro más inclusivo y equitativo. Y conforme nos podamos ir adentrando en la naciente era de la IA, es fundamental que sigamos reflexionando sobre su impacto, estableciendo regulaciones adecuadas y fomentando un enfoque ético en su desarrollo y aplicación. Así, podremos aprovechar todo su potencial mientras protegemos nuestros valores fundamentales y garantizamos un futuro brillante para la humanidad.


¿ El fin ?

Comentarios

Entradas más populares de este blog

¿Qué tan inteligente es realmente una Inteligencia Artificial?

Entre el Desarrollo y el Negocio. Un Producto tecnológico como negocio

Más allá de la programación… Un cuento de Desarrollo de Servicios

Web Semántica, Una línea de negocios

Humanos mejorados