La inteligencia artificial está revolucionando la forma en que vivimos y trabajamos, pero preocupaciones críticas éticas y de producción causarán obstáculos en su avance.
Desde sus inicios, la inteligencia artificial (IA) ha ido cambiando rápidamente. Con la introducción de ChatGPT, DALL-E y otras herramientas de IA generativa, 2023 surgió como un año de grandes avances, poniendo la IA en manos de las masas. Incluso en todo su esplendor, también nos encontramos en un punto de inflexión.
La IA revolucionará las industrias y aumentará las capacidades humanas, pero también planteará importantes cuestiones éticas. Tendremos que pensar críticamente si las tareas impulsadas por IA más fáciles y rápidas son mejores, o simplemente más fáciles y rápidas. ¿Las mismas herramientas que utilizan los estudiantes de secundaria para escribir sus trabajos son en las que podemos confiar para impulsar aplicaciones de nivel empresarial?
La respuesta corta es no, pero el revuelo podría prestarse a otra historia. Está claro que la IA está preparada para otro año histórico, pero es la forma en que afrontemos los desafíos que trae lo que determinará su verdadero valor. Aquí hay tres posibles problemas de crecimiento que los líderes empresariales deben tener en cuenta al embarcarse en su viaje hacia la IA en 2024.
Los LLM causarán luchas
La ingeniería rápida es una cosa, pero implementar aplicaciones de grandes modelos de lenguaje (LLM) que den resultados precisos y de nivel empresarial es más difícil de lo que se anuncia inicialmente. Los LLM han prometido hacer que las tareas de IA sean más inteligentes, fluidas y escalables que nunca, pero lograr que funcionen de manera eficiente es un obstáculo al que se enfrentarán muchas empresas. Si bien comenzar es sencillo, la precisión y la confiabilidad aún no son aceptables para el uso empresarial.
Lidiar con la solidez, la equidad, el sesgo, la veracidad y la fuga de datos requiere mucho trabajo, y todos son requisitos previos para que los LLM entren en producción de manera segura. Tomemos como ejemplo la atención sanitaria. Investigaciones académicas recientes encontraron que los modelos GPT tuvieron un desempeño deficiente en tareas críticas, como el reconocimiento de entidades nombradas (NER) y la desidentificación. De hecho, el modelo específico de atención médica PubMedBERT superó significativamente a ambos modelos LLM en tareas de NER, extracción de relaciones y clasificación de etiquetas múltiples.
El coste es otra preocupación importante de los modelos GPT para tales tareas. Algunos LLM son dos órdenes de magnitud más caros que los modelos más pequeños. Siguiendo con el ejemplo sanitario, con la cantidad de información clínica a analizar, esto reduce significativamente la viabilidad económica de las soluciones basadas en GPT. Y como resultado, lamentablemente veremos muchos proyectos específicos de LLM estancarse o fracasar por completo.
La especificación del dominio ya no es algo agradable de tener
Usar OpenAI para hacer preguntas en un entorno de dominio específico, como la atención médica o la industria legal, no es suficiente. Hay ciertas tareas que no se pueden resolver simplemente ajustando modelos. En este caso, la ingeniería y la experiencia en el dominio son cruciales. No le pediría a un científico de datos que realizara una cirugía; no espere que la IA lleve a cabo tareas específicas de la industria sin un profesional al mando.
Según una encuesta de Gradient Flow, cuando se les preguntó acerca de los usuarios previstos para las herramientas y tecnologías de IA, más de la mitad de los encuestados identificaron a los médicos (61%) como usuarios objetivo, y cerca de la mitad indicó que los proveedores de atención médica (45%) se encuentran entre sus usuarios objetivo. Además, una tasa más alta de líderes técnicos citó a los pagadores de atención médica y a los profesionales del desarrollo de medicamentos como usuarios potenciales de aplicaciones de IA.
Es probable que el cambio de un científico de datos a un experto en el campo continúe en el sector de la salud y más allá, especialmente con el aumento de las herramientas sin código o de código bajo. Este es un avance importante, ya que la democratización de la IA abrirá las puertas para que más usuarios impulsen la innovación. Pero tal como están las cosas, los mejores resultados se obtienen cuando los ingenieros y los expertos en el campo trabajan en conjunto.
La IA responsable se está convirtiendo en SOP
Otro desafío que enfrentaremos, aunque positivo y esperado desde hace mucho tiempo, es la salida a la luz de las regulaciones éticas. Los precedentes legales y las directrices que priorizan la responsabilidad de los proveedores se convertirán en un requisito empresarial estándar para el uso de herramientas de IA. Ya estamos viendo que esto se materializa con la Orden Ejecutiva de Biden sobre IA y las regulaciones de IA del Reino Unido.
Es un paso importante, especialmente considerando que las herramientas de inteligencia artificial de terceros son responsables de más de la mitad (55%) de las fallas relacionadas con la inteligencia artificial en las organizaciones, según una investigación reciente del MIT Sloan Management Review y Boston Consulting Group. Las consecuencias de estos fracasos incluyen daños a la reputación, pérdidas financieras, pérdida de confianza de los consumidores y litigios. Esto resalta la necesidad de responsabilidad del proveedor y las consecuencias si no se toman las medidas adecuadas.
Aunque el camino hacia la producción puede ser más largo que antes, tiene poco valor económico invertir en soluciones que, en última instancia, pueden perjudicar a su negocio. Si vende software, es directamente responsable de lo que hace en producción. Adherirse a estándares éticos de IA ya no es sólo lo correcto: es ilegal no hacerlo y se convertirá en un procedimiento operativo estándar, como debería ser.
Si bien el camino por delante puede ser difícil, 2024 será otro año decisivo para la IA. La innovación avanza más rápido que nunca, pero es vital considerar si estamos haciendo más bien que mal. Aunque es probable que experimentemos algunos problemas reales de crecimiento en la industria, es probable que sea otro año decisivo para la IA.Principio del formulario
Fuente: https://www.ciospain.es/tendencias/el-camino-empedrado-que-le-espera-a-la-ia