Conseguir que un robot iguale o supere las capacidades del ser humano no parece una meta plausible para los próximos años. Habrá que seguir esperando para conocer a las máquinas superinteligentes, si es que llega el momento.
Si hay una cosa que ha dejado clara la pandemia que estamos pasando es que el proceso de transformación digital se está acelerando aún más, tanto en la sociedad, como en las administraciones y los negocios. Por no decir que sin ella las cosas habrían sido probablemente aún más duras.
Digitalización, inteligencia artificial, computación cuántica, cloud… Son muchísimos los conceptos y tecnologías que han irrumpido en nuestras vidas con intención de jugar un papel determinante, no ya en el futuro, sino en el mismo presente. Sobre todo esto, y mucho más, se reflexionó en el Think Digital Summit España 2020 de IBM, celebrado este 15 de octubre por vía online.
Tras la sesión plenaria, tuvieron lugar en paralelo distintas charlas centradas en diferentes campos como los negocios, la tecnología y, cómo no, la innovación. Precisamente en relación con este último apartado, Víctor Carralero, director de Hybrid Cloud & Cognitive Software de IBM, reflexionó sobre el futuro de la inteligencia artificial (IA) y la analítica avanzada. Así, aunque muchas personas se imaginen futuros apocalípticos tan recreados por el cine y la literatura, con máquinas superinteligentes capaces de controlar el mundo e incluso de exterminar nuestra raza, lo cierto es que no se aleja tanto del fin último de la IA, que es conseguir una inteligencia similar a la nuestra, algo que en su opinión estaría a la altura de descubrir “el origen de la vida”, por ejemplo.
Y es que, no hay que olvidar que las capacidades humanas se van desarrollando mediante la interacción con nuestro entorno, lo cual quiere decir que no solo tenemos la habilidad de resolver problemas, sino que además los correlacionamos para encontrar soluciones que van más allá de lo concreto.
Por otra parte, Carralero se encargó de hacer un resumen de las etapas de la IA, para situarnos en el presente y ver hacia dónde vamos:
En cualquier caso, la evolución que está teniendo la IA es innegable, con un impacto además muy importante en prácticamente todas las industrias. Sin ir más lejos, como apuntó Carralero en su exposición, en esta pandemia a través de modelos de IA se está ayudando a predecir contagios o analizar la evolución de los mismos y de la propia pandemia.
En este camino de implementación de IA en las diferentes industrias, como relató el portavoz de IBM, existen una serie de claves a tener en cuenta, como el hecho de operacionalizar la IA, ya que tiene que formar parte de los procesos del negocio y no quedarse en algo aislado por departamentos. Además, hay que contar con arquitecturas de datos corporativas, una automatización inteligente de los procesos y, por último, prestar mucha atención al partnership entre las máquinas y los humanos, dado que debemos focalizarnos en utilizar mejor el capital humano de las empresas, orientándolo hacia labores que tengan un mayor valor añadido.
En cuanto a los retos que tenemos por delante, destacan el de lograr garantizar la seguridad de los datos; el volumen y gestión de los mismos, con la dificultad que existe para recoger datos que aporten valor; la velocidad en el desarrollo de soluciones y su integración, y la ética.
En relación con este último aspecto, Francesca Rossi, IBM fellow and AI Ethics Global Leader de IBM Research, reconoció que existe una preocupación latente sobre la ética en el desarrollo de la IA, porque queda la incógnita de si son realmente justas las decisiones que se toman basadas en ella. Y es que, si bien es cierto que su nivel de acierto es altísimo, ¿qué ocurre cuando fallan? Por ello, como expuso Rossi, desde IBM tienen claro que tanto en el desarrollo como en la implementación de modelos de IA debe imperar por encima de todo la fiabilidad y la transparencia, sobre todo en determinadas áreas como la financiera o la sanitaria, por las repercusiones que podría conllevar un fallo. Así, la justicia, la explicabilidad, la robustez y la transparencia serían, como apuntó Rossi, los cuatro principios que deben regir un desarrollo ético de la IA.
Fuente: https://byzness.elperiodico.com/