La Unión Europea ha publicado recientemente siete principios de ética que deberían aplicarse a los robots y la Inteligencia Artificial en esta cuarta revolución industrial para preservar los derechos y libertades de los seres humanos.
Dentro de la innovación tecnológica es imposible encontrar una tecnología que despierte mayor miedo y desconfianza que la Inteligencia Artificial (AI). La ciencia ficción y la propia historia de la humanidad nos han enseñado que con fuerzas tan poderosas como la Inteligencia Artificial es importante adelantarse a los acontecimientos y regular el uso de estas tecnologías.
Métodos de aprendizaje
Esta tecnología cada día es más capaz de reproducir los métodos de aprendizaje de los humanos y así ser más autónoma e inteligente. Sus beneficios en la sociedad y múltiples industrias son muchos, pero también lo son los peligros que podrían desatarse si la Inteligencia Artificial cae en malas manos o no se usa con precaución.
Aunque por el momento no hemos llegado a establecer las Leyes de la Robótica ideadas por Isaac Asimov en su famosa novela Yo Robot, lo cierto es que las empresas e instituciones se han inspirado en este concepto para buscar sus propios principios éticos que preserven los derechos y libertades de los seres humanos, sin frenar el desarrollo tecnológico.
Proyectos de Inteligencia Artificial
Hace unos días conocíamos que Google había fracasado en su intento de crear un consejo regulador que supervisará sus proyectos de Inteligencia Artificial. Pero parece que la Comisión Europea en Bruselas sí está avanzando en su empeño y ya ha publicado sus propias directrices para guiar a las empresas hacía sistemas de Inteligencia Artificial confiables.
Según la UE, cualquier AI debe respetar la autonomía y derechos de los ciudadanos europeos, prevenir cualquier tipo de discriminación y ser imparcial. Los siete puntos que adjuntamos a continuación también hacen referencia a la protección de los datos y privacidad de estos;
Los ciudadanos tendrán control total sobre sus datos y no podrán ser discriminados por ellos.
Sin duda, este punto está en consonancia con la nueva ley de protección de datos europea, el GDPR.
Otros dos puntos relevantes hablan también de la transparencia y responsabilidad.
La transparencia en el desarrollo de la AI es una de las exigencias que muchos expertos como el Instituto Alan Turing de Reino Unido llevan defendiendo desde hace tiempo: que una institución imparcial supervise los proyectos y algoritmos de Inteligencia Artificial creados por las empresas sin revelar los secretos comerciales que éstas quieran preservar.
Además, ante cualquier caso de error o perjuicio para algún humano, la compañía o creadores deberían hacerse responsables de los daños causados por su sistema inteligente. De esta manera las compañías tendrán más cautela a la hora de presentar sistemas con prejuicios raciales como los que ya se han visto en casos anteriores, por poner un ejemplo.
Fuente: https://www.ticbeat.com