Estamos viviendo una transformación mundial, una especie de revolución industrial en la que la Inteligencia Artificial (IA) no es solamente una herramienta tecnológica, sino un agente de naturaleza propia y única. En el siglo XXI, la Inteligencia Artificial se ha consolidado como una de las fuerzas motrices de la transformación global, logrando impactar en todos los sectores, amenazando principalmente los trabajos que consisten en actividades básicas y repetitivas, en las que el juicio humano no es muy relevante.
Hay Inteligencia Artificial sustituyendo a los cajeros igual que a los maestros, a los presentadores de noticias igual que a los conductores de autos. Sin embargo, su desarrollo y uso plantean preguntas fundamentales sobre la ética, los derechos humanos y la democracia. En respuesta a estos desafíos, el Consejo de Europa ha lanzado el primer tratado internacional legalmente vinculante sobre Inteligencia Artificial, derechos humanos, democracia y Estado de derecho: el Convenio Marco del Consejo de Europa sobre IA y derechos humanos. Firmado inicialmente por países como Andorra, Reino Unido, Estados Unidos y la Unión Europea, este acuerdo marca un hito histórico, trazando el camino hacia un marco global que regule los riesgos inherentes de la IA.
Este tratado, cuyo proceso de firma se abrió durante la conferencia de ministros de Justicia del Consejo de Europa en Vilna, llega en un momento crucial. A medida que los sistemas de IA se integran en procesos que afectan decisiones de justicia, atención médica, empleo y gobernanza, la necesidad de normas claras y robustas para prevenir violaciones a los derechos humanos es más urgente que nunca. La secretaria general del Consejo de Europa, Marija Pejčinović, señaló la importancia de este convenio para “garantizar que el auge de la IA sostenga nuestras normas, en lugar de socavarlas”. En esencia, el tratado establece un compromiso global para asegurar que el desarrollo de estas tecnologías esté alineado con los principios democráticos y los derechos humanos.
México y su posición en la regulación de la IA
Hace un par de días, el abogado y Doctor en Derecho, Alejandro Haro Acosta, explicaba que la Inteligencia Artificial logra garantizar el Estado de Derecho al ser un instrumento operativo que analiza grandes volúmenes de información, siendo capaz de ofrecer resultados conforme a instrucciones algorítmicas objetivas, concretas e impersonales. Es decir, que eliminando el factor humano, la Inteligencia Artificial es capaz de aplicar estrictamente la ley o sus instrucciones, eliminando cualquier espacio de error humano o negligencia en el análisis de información.
México, como uno de los países que participó en la negociación de este tratado, enfrenta retos particulares en la implementación de un marco ético y legal para la Inteligencia Artificial. Aunque aún no ha firmado el convenio, las implicaciones de la IA para los derechos humanos en nuestro país son profundas y urgentes. El uso de sistemas automatizados en sectores clave como la seguridad pública, la administración de justicia y los servicios de salud ha suscitado preocupaciones sobre la transparencia, la discriminación y el respeto a la privacidad. Un ejemplo claro es la creciente implementación de algoritmos en sistemas de videovigilancia y en las plataformas de identificación de personas, que podría amplificar prejuicios raciales y de género.
El tratado europeo es una referencia clave para México, un país que aún carece de una regulación comprensiva sobre la IA. La actual legislación mexicana es insuficiente para enfrentar los desafíos derivados del uso de algoritmos opacos y sistemas automatizados que, como vimos en el caso del fraude de las guarderías en los Países Bajos, pueden llevar a la exclusión y marginación de sectores vulnerables de la población. Además, México se enfrenta a un riesgo adicional: la falta de transparencia en el uso de IA en la administración pública y en el sector privado puede derivar en prácticas discriminatorias que vulneran derechos fundamentales como la igualdad y la no discriminación.
Hacia un marco ético y regulatorio en México
México tiene la oportunidad de aprender de los avances que están ocurriendo a nivel internacional y aprovechar el momento para trabajar en su propio marco ético y legal para el uso de IA. El Convenio Marco del Consejo de Europa representa una guía clave para asegurar que la tecnología respete los principios constitucionales y de derechos humanos. Este tratado, tecnológicamente neutral y aplicable a lo largo de todo el ciclo de vida de los sistemas de IA, propone mecanismos que mitigan los riesgos sin frenar la innovación. Para México, esto significa construir un marco que fomente el desarrollo tecnológico, pero que también garantice la protección de los derechos humanos en cada etapa de la implementación de IA.
La regulación de la Inteligencia Artificial no debe verse como una barrera para el progreso, sino como una herramienta para asegurar que ese progreso sea justo, inclusivo y respetuoso con los derechos de todos los ciudadanos. Las promesas de la IA son enormes, pero los riesgos de su mal uso son igualmente grandes. En este sentido, México debe tomar medidas proactivas para prevenir la perpetuación de desigualdades, especialmente en un contexto donde los más vulnerables suelen ser los primeros en sufrir las consecuencias de sistemas que no se diseñan pensando en su inclusión.
A medida que más países firman y ratifican este histórico tratado, México no debe quedarse atrás. Debemos ser parte de este esfuerzo global por humanizar la tecnología, asegurando que la Inteligencia Artificial no se convierta en una herramienta de exclusión y discriminación, sino en una herramienta que promueva la justicia social y los derechos humanos. El camino es claro, y el momento es ahora.
¿Qué hacer por el momento?
Santiago Nieto, recién nombrado titular del Instituto Mexicano de Propiedad Intelectual (IMPI) tendrá una enorme oportunidad para proponer reformas que incentiven y protejan la creatividad e innovación, aún aquella que se realiza a partir de herramientas de Inteligencia Artificial, pues es un hecho que saber comandarla implica un proceso creativo.
Sin embargo, distinguir entre inspiración y entrenamiento genuino de estas herramientas frente a los contenidos y patrones obtenidos sin consentimiento, implicará un reto.
El segundo ámbito en el que estas herramientas deben ser revisadas es en materia de seguridad e inteligencia. Recordemos que el famoso “Plan ANGEL” de Marcelo Ebrard era escandaloso por criminalizar personas tan solo por su manera de caminar.