...
¿Qué es lo próximo para la IA?

¿Qué es lo próximo para la IA?

Mientras los grandes modelos lingüísticos siguen avanzando, nuevos modelos y agentes están demostrando ser más eficaces en tareas discretas. La IA necesita diferentes habilidades para diferentes campos.

Autores:

Kelly Raskovich, Estados Unidos

Bill Briggs, Estados Unidos

Mike Bechtel, Estados Unidos

Abhijith Ravinutala, Estados Unidos

Parpadea y te lo pierdes: La velocidad del avance de la inteligencia artificial está superando las expectativas. El año pasado, mientras las organizaciones se esforzaban por comprender cómo adoptar la IA generativa, advertimos a los lectores de Tendencias Tecnológicas 2024 que priorizaran la necesidad a medida que se diferenciaban de la competencia y adoptaban un enfoque estratégico para ampliar el uso de modelos de lenguaje extensos (LLM). Hoy en día, los LLM se han consolidado, y hasta el 70 % de las organizaciones, según algunas estimaciones, exploran o implementan activamente casos de uso de LLM .

Pero las organizaciones líderes ya están considerando el siguiente capítulo de la IA. En lugar de depender de modelos básicos desarrollados por grandes empresas de IA, que pueden ser más potentes y basarse en más datos de los necesarios, las empresas ahora consideran implementar múltiples modelos más pequeños que puedan ser más eficientes para las necesidades del negocio. 2 Los LLM seguirán avanzando y serán la mejor opción para ciertos casos de uso, como chatbots de propósito general o simulaciones para investigación científica, pero el chatbot que examina sus datos financieros para analizar las oportunidades de ingresos perdidas no tiene por qué ser el mismo modelo que responde a las consultas de los clientes. En resumen, es probable que veamos una proliferación de diferentes caballos para diferentes campos.

Una serie de modelos más pequeños que trabajan en conjunto podrían acabar ofreciendo casos de uso diferentes a los enfoques actuales de LLM. Las nuevas opciones de código abierto y los resultados multimodales (en lugar de solo texto) permiten a las organizaciones acceder a ofertas completamente nuevas. 3

En los próximos años, el progreso hacia un número creciente de modelos más pequeños y especializados podría revolucionar la IA en la empresa. Las organizaciones podrían presenciar un cambio fundamental en la IA, que pasará de ampliar el conocimiento a ampliar la ejecución. Las inversiones actuales en IA agencial , como se denomina esta nueva era, podrían transformar radicalmente nuestra forma de trabajar y vivir, dotando a consumidores y empresas de multitud de asistentes basados ​​en silicio. Imagine agentes de IA capaces de realizar tareas específicas, como presentar un informe financiero en una reunión de junta directiva o solicitar una subvención. «Hay una aplicación para eso» bien podría convertirse en «Hay un agente para eso».

Tabla de contenido

Ahora: Acertar con los fundamentos

Los LLM son, sin duda, emocionantes, pero requieren una gran cantidad de trabajo preliminar. En lugar de construir modelos por sí mismos, muchas empresas se asocian con compañías como Anthropic u OpenAI o acceden a modelos de IA a través de hiperescaladores. 4 Según Gartner®, los servidores de IA representarán cerca del 60% del gasto total en servidores de los hiperescaladores. 5 Algunas empresas han encontrado valor comercial inmediato en el uso de LLM, mientras que otras se han mantenido cautelosas sobre la precisión y aplicabilidad de los LLM entrenados en datos externos. 6 A escala de tiempo empresarial, los avances de IA aún se encuentran en una fase incipiente (gateando o caminando, como notamos el año pasado ). Según encuestas recientes de Deloitte y Fivetran y Vanson Bourne, en la mayoría de las organizaciones, menos de un tercio de los experimentos de IA generativa han pasado a producción, a menudo porque las organizaciones tienen dificultades para acceder o limpiar todos los datos necesarios para ejecutar programas de IA. Para lograr escala, las organizaciones probablemente necesitarán pensar más en los datos y la tecnología, así como en la estrategia, los procesos y el talento, como se describe en un informe reciente del Deloitte AI Institute .

Según el informe State of generative AI in the enterprise del tercer trimestre de 2024 de Deloitte , el 75 % de las organizaciones encuestadas han aumentado sus inversiones en la gestión del ciclo de vida de los datos gracias a la IA generativa. 8 Los datos son fundamentales para los LLM, porque las entradas incorrectas conducen a peores resultados (en otras palabras, basura que entra, basura al cuadrado). Por eso, los costos de etiquetado de datos pueden ser un gran impulsor de la inversión en IA. 9 Mientras que algunas empresas de IA exploran internet para crear los modelos más grandes posibles, las empresas astutas crean los modelos más inteligentes posibles, lo que requiere una mejor “educación” específica del dominio para sus LLM. Por ejemplo, LIFT Impact Partners , una organización con sede en Vancouver que proporciona recursos a organizaciones sin fines de lucro, está afinando sus asistentes virtuales habilitados para IA con datos apropiados para ayudar a los nuevos inmigrantes canadienses a procesar el papeleo. “Cuando lo capacitas con la personalidad, los datos y la cultura únicos de tu organización, se vuelve significativamente más relevante y eficaz”, dice Bruce Dewar, presidente y director ejecutivo de LIFT Impact Partners. “Aporta autenticidad y se convierte en una verdadera extensión de su organización”. 10

Los problemas de habilitación de datos son dinámicos. Las organizaciones encuestadas por Deloitte indicaron que podrían surgir nuevos problemas debido a la ampliación de los pilotos de IA, la falta de claridad en las regulaciones sobre datos sensibles y las dudas sobre el uso de datos externos (por ejemplo, datos de terceros con licencia). Por ello, el 55 % de las organizaciones encuestadas evitaron ciertos casos de uso de IA debido a problemas relacionados con los datos, y un porcentaje similar está trabajando para mejorar la seguridad de sus datos. 11 Las organizaciones podrían solucionar estos problemas utilizando modelos predefinidos ofrecidos por los proveedores, pero un impacto diferenciado de la IA probablemente requerirá datos empresariales diferenciados.

Afortunadamente, una vez sentadas las bases, los beneficios son claros: dos tercios de las organizaciones encuestadas afirman que están aumentando las inversiones en IA generativa porque han visto un gran valor hasta la fecha. 12 También están apareciendo ejemplos iniciales de valor en el mundo real en todas las industrias, desde la revisión de reclamaciones de seguros hasta la resolución de problemas de telecomunicaciones y las herramientas de segmentación de consumidores. 13 Los LLM también están causando sensación en casos de uso más especializados, como reparaciones espaciales, modelado nuclear y diseño de materiales. 14

A medida que las entradas de datos subyacentes mejoran y se vuelven más sostenibles, los LLM y otros modelos avanzados (como las simulaciones) podrían volverse más fáciles de implementar y escalar. Pero el tamaño no lo es todo. Con el tiempo, a medida que proliferan los métodos de entrenamiento e implementación de IA, es probable que las organizaciones prueben modelos más pequeños. Muchas podrían tener datos más valiosos de lo imaginado, y ponerlos en práctica mediante modelos más pequeños y orientados a tareas puede reducir tiempo, esfuerzo y complicaciones. Estamos preparados para pasar de proyectos de IA a gran escala a IA en todas partes, como se explica en la introducción de este año .

Nuevo: Diferentes caballos para diferentes recorridos

Si bien los LLM ofrecen una amplia gama de casos de uso, su biblioteca no es infinita (aún). Requieren recursos masivos, se centran principalmente en texto y están diseñados para aumentar la inteligencia humana en lugar de asumir y ejecutar tareas específicas. Por lo tanto, según Vivek Mohindra, vicepresidente sénior de estrategia corporativa de Dell Technologies, «no existe un enfoque universal para la IA. Habrá modelos de todos los tamaños y opciones diseñadas específicamente para cada caso; esa es una de nuestras convicciones clave en la estrategia de IA». 15

En los próximos 18 a 24 meses, es probable que los principales proveedores de IA y los usuarios empresariales cuenten con un conjunto de herramientas de modelos que incluya LLM cada vez más sofisticados y robustos, junto con otros modelos más aplicables a casos de uso cotidianos. De hecho, donde los LLM no son la opción óptima, tres pilares de la IA están abriendo nuevas vías de valor: modelos de lenguaje reducidos, modelos multimodales e IA agencial (figura 1).

Pequeños modelos de lenguaje

Los proveedores de LLM se esfuerzan por lograr la máxima eficiencia en los modelos de IA. En lugar de habilitar nuevos casos de uso, estos esfuerzos buscan adaptar u optimizar los modelos para los casos de uso existentes. Por ejemplo, los modelos masivos no son necesarios para tareas rutinarias como resumir un informe de inspección; un modelo más pequeño entrenado con documentos similares sería suficiente y más rentable.

Las empresas pueden entrenar modelos de lenguaje pequeños (SLM) con conjuntos de datos más pequeños y altamente seleccionados para resolver problemas más específicos, en lugar de consultas generales. Por ejemplo, una empresa podría entrenar un SLM con la información de su inventario, lo que permitiría a los empleados recuperar información rápidamente en lugar de analizar manualmente grandes conjuntos de datos, un proceso que a veces puede tardar semanas. La información obtenida de un SLM de este tipo podría integrarse con una aplicación de interfaz de usuario para facilitar el acceso.

Naveen Rao, vicepresidente de IA en Databricks, cree que más organizaciones adoptarán este enfoque sistémico con la IA: «Una computadora mágica que lo entienda todo es una fantasía de ciencia ficción. En cambio, de la misma manera que organizamos a las personas en el lugar de trabajo, deberíamos analizar nuestros problemas. Los modelos específicos de cada dominio y personalizados pueden entonces abordar tareas específicas, las herramientas pueden ejecutar cálculos deterministas y las bases de datos pueden extraer datos relevantes. Estos sistemas de IA ofrecen la solución mejor que cualquier componente por sí solo». 16

Una ventaja adicional de los modelos más pequeños es que pueden ejecutarse en el dispositivo y ser entrenados por las empresas con conjuntos de datos más pequeños y altamente seleccionados para resolver problemas más específicos, en lugar de consultas generales, como se explica en «El hardware se está comiendo al mundo ». Empresas como Microsoft y Mistral están trabajando actualmente para destilar estos SLM, basados ​​en menos parámetros, de sus ofertas de IA más amplias, y Meta ofrece múltiples opciones en modelos más pequeños y modelos de frontera. 17

Finalmente, gran parte del progreso en los SLM se debe a los modelos de código abierto que ofrecen empresas como Hugging Face o Arcee.AI.<sup> 18</sup> Estos modelos son ideales para el uso empresarial, ya que pueden personalizarse para diversas necesidades, siempre que los equipos de TI cuenten con el talento interno en IA para perfeccionarlos. De hecho, un informe reciente de Databricks indica que más del 75 % de las organizaciones están optando por modelos de código abierto más pequeños y personalizándolos para casos de uso específicos.<sup> 19</sup> Dado que los modelos de código abierto mejoran constantemente gracias a las contribuciones de una comunidad de programación diversa, es probable que su tamaño y eficiencia mejoren rápidamente.

Modelos multimodales

Los humanos interactúan a través de diversos medios: texto, lenguaje corporal, voz, videos, entre otros. Las máquinas ahora esperan ponerse al día. 20 Dado que las necesidades empresariales no se limitan al texto, no sorprende que las empresas esperen una IA que pueda procesar y producir múltiples medios. En cierto modo, ya estamos acostumbrados a la IA multimodal, como cuando hablamos con asistentes digitales y recibimos texto o imágenes a cambio, o cuando viajamos en automóviles que combinan visión artificial y señales de audio para brindar asistencia al conductor. 21

La IA generativa multimodal, por otro lado, se encuentra en sus etapas iniciales. Los primeros modelos importantes, el Proyecto Astra de Google y el GPT-4 Omni de OpenAI, se presentaron en mayo de 2024, y la oferta Titan de Amazon Web Services cuenta con capacidades similares. 22 El progreso en la IA generativa multimodal puede ser lento debido a que requiere cantidades significativamente mayores de datos, recursos y hardware. 23 Además, los problemas existentes de alucinación y sesgo que afectan a los modelos basados ​​en texto podrían verse exacerbados por la generación multimodal.

Aun así, los casos de uso empresariales son prometedores. La noción de “entrenar una vez, ejecutar en cualquier lugar (o de cualquier manera)” promete un modelo que podría entrenarse con texto, pero entregar respuestas en imágenes, video o sonido, dependiendo del caso de uso y la preferencia del usuario, lo que mejora la inclusión digital. Empresas como AMD apuntan a utilizar la tecnología incipiente para traducir rápidamente materiales de marketing del inglés a otros idiomas o para generar contenido. 24 Para la optimización de la cadena de suministro, la IA generativa multimodal puede entrenarse con datos de sensores, registros de mantenimiento e imágenes de almacén para recomendar cantidades ideales de existencias. 25 Esto también conduce a nuevas oportunidades con la computación espacial, sobre las que escribimos en ” La computación espacial toma protagonismo “. A medida que la tecnología progresa y la arquitectura del modelo se vuelve más eficiente, podemos esperar ver aún más casos de uso en los próximos 18 a 24 meses.

IA agente

El tercer nuevo pilar de la IA podría allanar el camino para cambios en nuestras formas de trabajar durante la próxima década. Los modelos de acción, grandes (o pequeños), van más allá de las capacidades de preguntas y respuestas de los LLM y realizan tareas discretas en el mundo real. Los ejemplos van desde reservar un vuelo según las preferencias de viaje hasta brindar atención al cliente automatizada que puede acceder a bases de datos y ejecutar las tareas necesarias, probablemente sin necesidad de indicaciones altamente especializadas. 26  La proliferación de estos modelos de acción, que funcionan como agentes digitales autónomos, anuncia el inicio de la IA agencial, y proveedores de software empresarial como Salesforce y ServiceNow ya están promocionando estas posibilidades. 27

Chris Bedi, director de atención al cliente de ServiceNow, cree que la IA agentica, específica para un dominio o sector, puede revolucionar la interacción entre humanos y máquinas en las empresas. <sup>28</sup> Por ejemplo, en la plataforma Xanadu de la compañía, un agente de IA puede analizar los problemas entrantes de los clientes comparándolos con un historial de incidentes para recomendar los siguientes pasos. Posteriormente, se comunica con otro agente autónomo que puede ejecutar dichas recomendaciones, y un humano en el circuito revisa las comunicaciones entre agentes para aprobar las hipótesis. De igual manera, un agente podría ser experto en la gestión de cargas de trabajo en la nube, mientras que otro aprovisiona pedidos para los clientes. Como afirma Bedi: «La IA agentica no puede sustituir por completo a un humano, pero sí puede trabajar junto a sus equipos, gestionando tareas repetitivas, buscando información y recursos, y trabajando en segundo plano las 24 horas del día, los 7 días de la semana, los 365 días del año».<sup> 29</sup>

Finalmente, aparte de las diferentes categorías de modelos de IA mencionadas anteriormente, los avances en el diseño y la ejecución de la IA también pueden impactar la adopción empresarial, concretamente la llegada de las redes neuronales líquidas. “Líquido” se refiere a la flexibilidad en esta nueva forma de entrenamiento de la IA a través de una red neuronal, un algoritmo de aprendizaje automático que imita la estructura del cerebro humano. De forma similar a cómo las computadoras cuánticas se liberan de la naturaleza binaria de la computación clásica, las redes neuronales líquidas pueden hacer más con menos: Un par de docenas de nodos en la red podrían ser suficientes, frente a los 100.000 nodos de una red más tradicional. La tecnología de vanguardia apunta a funcionar con menos potencia informática, con más transparencia, lo que abre posibilidades para integrar la IA en dispositivos periféricos, robótica y sistemas críticos para la seguridad. 30 En otras palabras, no son solo las aplicaciones de la IA, sino también sus mecanismos subyacentes los que están listos para la mejora y la disrupción en los próximos años.

Siguiente: Hay un agente para eso.

En la próxima década, la IA podría centrarse por completo en la ejecución, en lugar de en la mejora humana. Un futuro empleado podría realizar una solicitud en lenguaje sencillo a un agente de IA, por ejemplo, “cerrar la contabilidad del segundo trimestre y generar un informe sobre el EBITDA”. Al igual que en una jerarquía empresarial, el agente principal delegaría las tareas necesarias a agentes con roles específicos que se distribuyen en cascada entre diferentes suites de productividad para tomar medidas. Al igual que con los humanos, el trabajo en equipo podría ser el ingrediente faltante que permita a las máquinas mejorar sus capacidades. 31 Esto nos lleva a algunas consideraciones clave para los próximos años (figura 2):

  • Comunicación entre IA. Es probable que los agentes tengan una forma más eficiente de comunicarse entre sí que el lenguaje humano, ya que no necesitamos chatbots que imiten a los humanos. 32 Una mejor comunicación entre IA puede mejorar los resultados, ya que menos personas necesitarán convertirse en expertos para beneficiarse de la IA. De hecho, la IA puede adaptarse al estilo de comunicación de cada persona. 33
  • Desplazamiento y creación de empleos. Algunos afirman que roles como el de ingeniero de sistemas podrían quedar obsoletos. <sup>34 </sup> Sin embargo, la experiencia en IA de estos empleados seguirá siendo relevante, ya que se centran en la gestión, la formación y la colaboración con agentes de IA, como hacen actualmente con los LLM. Por ejemplo, un equipo de TI reducido con expertos en IA podría desarrollar los agentes que necesita en una especie de “fábrica de IA” para la empresa. El cambio significativo en las habilidades y la formación de la fuerza laboral restante podría, en última instancia, recompensar habilidades más humanas como la creatividad y el diseño, como se mencionó en Tendencias Tecnológicas anteriores .
  • Privacidad y seguridad. Es probable que la proliferación de agentes con acceso al sistema genere amplias preocupaciones sobre la ciberseguridad, que cobrarán mayor importancia a medida que transcurra el tiempo y los sistemas de IA accedan a más datos. Se requerirán nuevos paradigmas de riesgo y confianza para aprovechar al máximo la aplicación de agentes de IA.
  • Energía y recursos. El consumo energético de la IA es una preocupación creciente. 35 Para mitigar el impacto ambiental, el desarrollo futuro de la IA deberá equilibrar el rendimiento con la sostenibilidad. Deberá aprovechar las mejoras en las redes neuronales líquidas u otras formas eficientes de entrenamiento de la IA, sin mencionar el hardware necesario para que todo esto funcione, como analizamos en « El hardware se está comiendo el mundo ». 
  • Liderazgo para el futuro. La IA tiene potencial transformador, como se ha escuchado ampliamente durante el último año, pero solo en la medida en que el liderazgo lo permita. Aplicar la IA como una forma más rápida de hacer las cosas como siempre se han hecho resultará, en el mejor de los casos, en la pérdida de potencial y, en el peor, en la amplificación de los sesgos. 36 Los líderes imaginativos y valientes deberían atreverse a llevar la IA de las mejores prácticas calcificadas a la creación de “prácticas futuras”, donde encontremos nuevas formas de organizarnos a nosotros mismos y a nuestros datos hacia un mundo impulsado por la IA.

En lo que respecta a la IA, es probable que las empresas tengan en el futuro las mismas consideraciones que hoy: datos, datos y más datos. Hasta que los sistemas de IA puedan alcanzar 
la inteligencia artificial general o aprender con la misma eficiencia que el cerebro humano, 
<sup>37</sup> estarán ávidos de más datos e insumos que les permitan ser más potentes y precisos. Las medidas que se tomen hoy para organizar, optimizar y proteger los datos empresariales podrían generar dividendos en los próximos años, ya que la deuda de datos podría convertirse algún día en la mayor parte de la deuda técnica. Este trabajo preliminar también debería ayudar a las empresas a prepararse para la letanía de desafíos regulatorios e incertidumbres éticas (como limitaciones en la recopilación y el uso de datos, preocupaciones sobre la equidad y falta de transparencia) que conlleva el avance de esta nueva y poderosa tecnología hacia el futuro.<sup> 
38</sup> La apuesta por la “basura que entra, basura que sale” no hará más que crecer: sería mucho mejor optar por la “genialidad que entra, genio al cuadrado”.

Leave a Reply

Your email address will not be published. Required fields are marked *

Seraphinite AcceleratorOptimized by Seraphinite Accelerator
Turns on site high speed to be attractive for people and search engines.