Quebec: Un centro de inteligencia artificial que antepone la ética

Imagen: Getty Images.
Aunque no todos lo saben, Quebec –con Montreal y la ciudad de Quebec a la cabeza–, es uno de los polos más importantes en materia de inteligencia artificial. El Instituto de Inteligencia y Datos (IDD) de la Universidad Laval es pionero, no solo en productividad sino también en buscar soluciones éticas y justas para la sociedad.
Por Dino Rozenberg

La ciencia, como muchas disciplinas, tiene aspectos brillantes y oscuros; su lado útil y su lado cuestionable. Todo depende de quién lo mire y califique, de quien lo aproveche y de quien sea perjudicado. La informática puede servir para hacer el bien y aumentar la productividad, o para defraudar y dañar a las personas y la sociedad. Lo mismo ocurre con la inteligencia artificial (IA), este intrigante dominio que ha sido considerado como una verdadera revolución. También hay errores en las revoluciones, así que no es casual que investigadores e instituciones académicas estudien la IA con diferentes perspectivas. Tiene que servir a la economía, la salud, la educación y el medio ambiente, pero no debería usarse para segregar o discriminar a las personas, aprovecharse a escondidas de los datos personales, y mucho menos para intimidar o amenazar.

No es una cuestión hipotética y ocurre más cerca de lo que se puede creer. Recientemente, las autoridades que supervisan el uso de la información personal detectaron que la cadena de cafeterías Tim Hortons había estado haciendo un seguimiento abusivo y exagerado de sus clientes, al punto de conocer todos sus movimientos e interacciones aunque la aplicación estuviese apagada.

Por eso es importante estar alertas, y el Instituto de Inteligencia y Datos (IID) de la Universidad Laval, es líder en este campo. Fue fundado en 2020 a partir de cuatro centros pioneros en sus diferentes áreas, como visión e inteligencia artificial; informática geoespacial; informática masiva, y recursos empresariales, logísticos y de transporte. Actualmente lo dirige Christian Gagné y alberga estudiosos y desarrolladores de diferentes orígenes que elaboran proyectos con un enfoque utilitario y a la vez ético.

“El riesgo de producir una IA discriminatoria, sesgada, racista e imperialista debe tomarse en serio –dicen en entrevista Schallum Pierre y Amna Abderrazak, miembros del Comité de ética, diversidad e inclusión (EDI)–. Solo hay que pensar en los problemas sociales asociados al reconocimiento facial, que puede favorecer a ciertas personas en función del color de la piel.”

Aunque los investigadores aceptan que existen medios para evitar sesgos, es necesario tener una visión inclusiva y buscar un resultado justo y equitativo. “Es importante ser consciente de los prejuicios en los que estamos envueltos para no transportarlos a las bases de datos que se utilizan para entrenar los modelos de IA”. Por lo mismo, el equipo que diseña debe ser diverso y tener en cuenta tantas perspectivas como sea posible. Si solo intervienen personas de los países desarrollados, es previsible que la solución incorpore una visión ajena a las necesidades de poblaciones menos afortunadas.

Tim Hortons había estado haciendo un seguimiento abusivo y exagerado de sus clientes (foto: CBC).

Hacia los desarrollos más éticos

Para enfrentar estos problemas éticos, legales y sociales se están construyendo nuevas pautas de conducta y el IID las ha encuadrado en cuatro áreas de enfoque: Ética, confidencialidad y aceptabilidad social; IA y métodos de procesamiento de datos; Salud y estudio de la vida; y finalmente, Entorno físico.

Pierre y Abderrazak explican que dada su importancia, la ética es transdisciplinaria e impacta todas las áreas de investigación e intervención del IID. Los investigadores siguen con interés los desarrollos de la Unión Europea con respecto al respeto de los datos personales. Varios países comparten los lineamientos del Reglamento General de Protección de Datos (GDPR), y Quebec ya promulgó la Ley 25, que tendrá que desempeñar un papel importante con respecto a la protección de la información personal (incluyendo información financiera y de salud).

“Un elemento relevante de esta ley es que exige el consentimiento expreso para compartir los datos recolectados –señalan los académicos–. En caso de transferencia de datos, se solicita que el país de destino tenga, al menos, las mismas condiciones de respeto a la información personal. Este requisito podría llevar a algunos países a implementar o actualizar sus regulaciones de minería de datos. En 2021, la Comisión Europea formuló la Ley de IA que, de adoptarse, podría convertirse en el primer marco legal a escala mundial.”

Amna Abderrazak y Schallum Pierre, miembros del Comité de ética, diversidad e inclusión (EDI) del IDD de la Universidad de Laval.

Las preguntas se multiplican. ¿Existen riesgos concretos que las instituciones involucradas deben evitar, aun cuando pudieran ir contra sus propios intereses, por ejemplo los comerciales? ¿Es aceptable que una empresa o una entidad financiera automatice sus procesos y perfile a sus clientes en función de parámetros personales como el barrio donde viven, su nivel educativo o su estado de salud?

“Hay muchos riesgos. Antes de emprender la investigación o el desarrollo de productos basados ​​en IA, las universidades y las empresas deben analizar los impactos potenciales con el objetivo de proteger a las personas en relación con su ecosistema. El gobierno canadiense ha publicado una ‘evaluación de impacto algorítmico’ en GitHub [github.com]. En el contexto de un proyecto que requiera la toma de decisiones automatizado, es mejor abstenerse mientras no se garantice la mitigación del riesgo. El ejemplo de los sistemas de armas autónomas letales (LAWS, por sus siglas en inglés) ilustra bien esto. Ante la ausencia de un marco legal local o global que pudiera potencialmente proteger a los civiles, recientemente varios países han utilizado estos equipos. Las consecuencias son dramáticas. Por eso, sería prudente considerar una prohibición preventiva de las armas basadas en IA.”

Las LAWS, también bautizadas como robots asesinos, son artefactos (vehículos, misiles o embarcaciones) no tripulados ni operados por personal a cargo; pueden ser fijos o estar en movimiento, y están programados para detectar y detonar con personas o equipos que su sistema de inteligencia identifica como objetivos enemigos. Estas “máquinas de matar” pueden disparar si sus cámaras reconocen a personas con un uniforme o apariencia determinada, o bien contra vehículos con ciertas características.

Quebec y su ambiente multicultural

La multiculturalidad y diversidad que caracterizan a Quebec como motor de inmigración aportan a la construcción de mejores recursos IA no solo en materia de profesionales sino respecto de las aplicaciones para organizaciones de diferentes tamaños y necesidades.

A este respecto, los investigadores del IID explican que “la co-construcción y la multidisciplinariedad contribuyen a enfrentar los desafíos de los problemas sociales comunes. El IID acaba de crear su Comité de ética, diversidad e inclusión con el objetivo de atender la necesidad de diferenciar los temas de investigación y desarrollo. Compartir la experiencia de diversos orígenes y múltiples campos de investigación es la base de la innovación. Es muy difícil tener valor añadido con perfiles poco variados. El interés propio puede ser un obstáculo para el avance de la ciencia y el desarrollo de la tecnología. Debemos estar abiertos a los enfoques basados ​​tanto en el género como en las identidades múltiples para satisfacer las necesidades específicas de las personas y las comunidades, y abordar los problemas sistémicos.”

Por lo pronto, un laboratorio del IID trabaja en aplicaciones que utilizan pequeños volúmenes de datos (Big Data vs Fewer Data), lo que significa que se requieren menos inversiones en tecnología. ¿Cuál es la importancia de este enfoque y cómo beneficiará a los negocios pequeños y startups? La Universidad Laval forma a muchos investigadores que trabajan desde la perspectiva de la IA frugal o IA con menos datos, y uno de ellos ya apoya a una startup de Quebec en el desarrollo de medicamentos.

El Instituto de Inteligencia y Datos (IID) de la Universidad Laval fue fundado en 2020 (captura de imagen de su página web).

Un campo que aporta mucho a la sociedad es el desarrollo de la visión artificial, y no solo en la industria y las manufacturas. En una aplicación en desarrollo ese tipo de tecnología facilita el descubrimiento oportuno de ciertos problemas de salud, como cáncer de piel, y propicia el desarrollo de una medicina proactiva, con la cual pueden disminuir los costos y el estrés de los pacientes.

Otra área es el análisis de variables en ciberseguridad, un problema que se agudizó en los últimos tiempos. “Con la complejidad de los ataques, el uso del aprendizaje automático podría ser de gran beneficio para los países, en un enfoque proactivo y ofensivo. Es importante mencionar que todas las áreas que generan datos masivos pueden beneficiarse de la IA. El gobierno, la industria y la academia deben involucrarse en el desarrollo y aplicación de planes estratégicos adaptados a la realidad local: salud humana, sanidad animal, medio ambiente, aguas residuales, etc. Es muy importante maximizar el valor científico de estos datos y tener prácticas de valorización justas (que sean fáciles de encontrar, accesibles, interoperables y reutilizables), aplicadas tanto a máquinas como a seres humanos “. Los especialistas del IID dicen estar orgullosos porque dos de las empresas que apoyan ya reclaman el estatus de unicornios canadienses.