Lo que hasta hace solo unos pocos años era ciencia ficción, se ha convertido en realidad. Numerosos expertos señalan que en algún momento del Siglo XXI tendrá lugar una gran avance de la Inteligencia Artificial que tendrá un importante impacto en nuestras vidas.
Es por ello que actualmente se está llevando a cabo un intenso debate acerca de la ética de la IA, así como del papel que representan tanto Gobiernos como empresas. Y el epicentro de ese debate se encuentra en Asia, uno de los continentes con mayor desarrollo tecnológico en el mundo actual.
Una de las publicaciones más interesantes acerca de los códigos éticos aplicados a la Inteligencia Artificial fue publicado en el año 1985 por Judith Jarvis Johnson en la revista The yale Law Journal llamado “The Trolley problem“. En dicho artículo, el reconocido jurista planteó una serie de hipótesis de cierta complejidad para cuestionar cómo la Inteligencia Artificial sería capaz de resolverlos.
Por un lado, una persona conduciendo un automóvil con el sistema de frenos averiado. Ante él el camino se bifurca en dos. En el camino de la izquierda hay un total de cinco personas en la calzada. Mientras, en el de la derecha solo hay una. Pues bien, ¿resulta lícito acabar con la vida de una persona para salvar a otras cinco?
La segunda hipótesis plantea una situación en la que un joven acude a un centro médico para someterse a un chequeo rutinario. En el mismo centro hay un total de cinco pacientes esperando el trasplante de diversos órganos: dos necesitan un pulmón, dos un riñón y uno un corazón. El joven que ha ido a hacerse el chequeo es compatible con todos ellos, así que es un donante idóneo. La pregunta es idéntica a la planteada en la hipótesis anterior: ¿resulta lícito matar a una persona para salvar a cinco?
Una persona sería capaz de despejar este tipo de cuestiones atendiendo a criterios puramente éticos. En ambos casos, valorando la situación cuantitativamente, parece lógico matar a una persona para salvar a cinco. No obstante, hay diversos factores que son puramente humanos que podrían justificar otra decisión, como por ejemplo el contacto físico: ¿y si la persona que está en el camino de la izquierda es un familiar o un amigo?
Por lo tanto, es muy complicado que una máquina sea capaz de calibrar decisiones de este tipo. Es por ello que resulta esencial que la Inteligencia Artificial esté siempre dotada de una serie de código éticos.
Del mismo modo que ha ocurrido con otros avances tecnológicos a lo largo de la historia, hay quienes plantean teorías realmente catastróficas con respecto a la IA. Nick Bostrom, un reconocido filósofo, sostiene que la Inteligencia Artificial provocará la extinción humana en algún momento. También plantea la situación opuesta, en la que una inteligencia superior podría ayudar a los seres humanos a resolver diferentes problemas.
El sistema de valores humanos es infinitamente complejo, de modo que es prácticamente imposible que la Inteligencia Artificial pueda encontrar algún tipo de motivación amigable en las formas de actuar humanas. Hay que comprender y aceptar que todos los esquemas que rigen la vida de las personas suponen el funcionamiento de la psique humana.
Por lo tanto, a la hora de incorporar la IA a los procesos de producción de las empresas, es fundamental dotar a la tecnología de principios y valores.
Según un informe presentado recientemente, el 92% de las compañías considera que es primordial formar a sus tecnólogos en ética. Además, el 63% de las empresas tecnológicas a nivel global cuentan con algún tipo de protocolo y comité para este tipo de asuntos.
Uno de los principales objetivos que se plantean en la sociedad actual es la de incluir la ética en los algoritmos que rigen la Inteligencia Artificial.
Aunque el debate de la ética en la Inteligencia Artificial se da en todo el mundo, el epicentro se encuentra en Asia. Son muchas las empresas y Gobiernos que realmente se muestran preocupados por el desarrollo de nuevos tipos de Inteligencia ya que consideran esencial la implantación de un algoritmo que sea capaz de reconocer fallos y centrarse en acciones sociales. El concepto es muy claro: en ningún caso el código puede dañar de algún modo a empresas o personas.
Son un total de tres los principios morales que se deben aplicar a la Inteligencia Artificial: la tecnología debe estar plenamente centrada en el ser humano, tiene que respetar los derechos de regulación aplicable fundamentales y, por supuesto, su funcionamiento debe ser transparente.
Grandes compañías y gobiernos se están centrado en los diversos problemas que pueden surgir en relación a la ética de la IA.
¿Eres proveedor de soluciones tic y necesitas mas información?
¿Eres una empresa y no encuentras lo que estás buscando?