Ni buena, ni mala, ni neutral

«La tecnología no es buena ni mala, pero tampoco es neutral». Esta es la primera de las seis leyes de los estamentos de la tecnología enunciadas por el profesor de Historia Melvin Kranzberg. Entonces, ¿es buena la Inteligencia Artificial? ¿Es mala? ¿Todo vale si hay progreso científico? ¿Puede usarse con fines maliciosos? Pues dependerá en cada momento de quién y cómo la utiliza. Lo fundamental es no caer ni en el tecnooptimismo ni la tecnofobia. Ni pensar que la Inteligencia Artificial resolverá todos los problemas actuales ni rechazar de entrada cualquier avance tecnológico. Ni permitírselo todo ni sospechar de todo.

Para la doctora en Matemáticas Cathy O'Neil no hay duda: el big data aumenta la desigualdad y amenaza la democracia. Ese es el subtítulo de su libro Armas de destrucción masiva, publicado en español por Capitan Swing. Sin embargo, considero que es arriesgado hacer estas afirmaciones genéricas sin tener en cuenta las distintas aplicaciones. Lo que sí que es cierto es que la Inteligencia Artificial forma ya parte de nuestras vidas y, por tanto, es necesario prever todos sus riesgos y posibles amenazas y plantear un marco legal adecuado a ellas.

Como vimos ya en una primera aproximación a la IA, tiene aplicaciones actuales o potenciales en las compras por Internet y la publicidad, las búsquedas en la web, asistentes personales digitales, traducciones automáticas, vehículos, casas, ciudades, infraestructuras inteligentes, ciberseguridad, lucha contra la desinformación, salud, transporte, manufacturas, comida, agricultura, administración pública, servicios, prevención de desastres naturales... En esta página se recogen numerosas aplicaciones concretas ya en marcha en los ámbitos de la salud y el medio ambiente.


Pero con una tecnología tan presente en nuestro día a día, es imprescindible tener en cuenta también sus sombras, no solo las luces. Citando a Vicent Botti, catedrático del Instituto Valenciano de Investigación en Inteligencia Artificial de la Universitat Politècnica de València, «debemos orientar los avances de la IA al diseño transparente de sistemas tecnológicos que sean compatibles con nuestros valores morales, sociales y culturales tales como la seguridad, la sostenibilidad, la democracia, la participación, la seguridad, la transparencia, la rendición de cuentas y el surgimiento de ciertas propiedades y funciones… y las instituciones deben apoyar estos principios. El diseño de los sistemas de IA se debe centrar en la eficiencia, la usabilidad, la flexibilidad, la resiliencia, la justicia, la dignidad, la felicidad, el bienestar, la seguridad, la salud, la empatía, la amistad, la solidaridad y la paz». 

Botti habla de la Inteligencia Artificial Responsable, «una IA de confianza basada en valores éticos y sociales con un enfoque centrado en el ser humano para hacer frente a estos retos y aprovechar al máximo las oportunidades que ofrece la IA». ¿Cuáles son los retos?

  1. Responsabilidad por los errores: debe quedar claro dónde radica la responsabilidad cuando los sistemas cometen errores y han de rendir cuentas
  2. Transparencia en la toma de decisiones: los sistemas de IA deben explicar sus acciones a los seres humanos
  3. Trabajo: los sistemas de IA reemplazan a las personas en muchos trabajos tradicionales; debemos repensar el significado del trabajo
  4. Evitar el sesgo: deben promoverse valores fundamentales como la igualdad, la diversidad y la ausencia de discriminación como consecuencia de la aplicación de la tecnología
  5. Valores éticos fundamentales: ¿cuáles serán los valores éticos fundamentales de la IA?
  6. Protección de datos y propiedad intelectual: la propiedad intelectual debe reconocerse y sopesarse en relación con la necesidad de utilizar los datos para fomentar la innovación
  7. Ciberseguridad: protección contra la piratería informática a medida que los sistemas de IA asumen un papel más destacado en la sociedad

En esa línea, se recogen testimonios de gran interés en el reportaje 'Por qué debería preocuparte la ética de la inteligencia artificial', de Ana Hernando para Sinc. En él se habla de la dictadura de los algoritmos, de sesgos, de la opacidad (cajas negras) de los algoritmos... También, de cómo regular las nuevas relaciones entre humanos y máquinas. 

Para Ramón López de Mántaras, profesor de investigación del CSIC en el IIIA y uno de los promotores de la Declaración de Barcelona, los ingenieros de IA deberían firmar una especie de juramento hipocrático de buenas prácticas y, además, instituciones independientes a las empresas deberían certificar los algoritmos para evitar sesgos. 

«Uno de los principales problemas en el tema de sesgos de la IA es que la mayoría de los científicos de datos son hombres blancos heterosexuales de países ricos. Al final uno mismo no es consciente de los sesgos que tiene. Creo que para mejorar esto es importante tener equipos diversos. Nosotros es algo en lo que estamos esforzándonos muchísimo. Para ello, estamos intentando atraer talento de África y de otros lugares. También queremos abrir una oficina en Zambia y Nigeria y nuestro personal está formado por gente de diferentes continentes, religiones, género —somos más mujeres que hombres— y orientación sexual. Además, tenemos una colaboración estrecha con científicos del comportamiento que están en los países donde estamos trabajando porque, como decía antes, muchas veces solo con los datos no es suficiente», explica África Periáñez, científica de datos y fundadora de benshi.ai.

Como hemos visto de manera detallada a lo largo de la asignatura Introducción a la Inteligencia Artificial, las tecnologías inteligentes han avanzado mucho en poco tiempo. Recordemos el artículo de Alan Turing en 1950 o la Conferencia de Dartmouth en 1956. El reto es que el marco jurídico y las respuestas que puede ofrecer la ética de la ciencia y las nuevas tecnologías avancen a la misma velocidad. Porque la IA no es buena ni mala, pero tampoco es neutral,  así que debemos dotarnos de herramientas que garanticen que se usa en beneficio del bien común, con seguridad, fiabilidad y responsabilidad.

Imagen de cabecera: foto de Luis Villafranca en Unsplash

Comentarios