¿Cuál es el método más popular para crear IA generativa confiable? TRAPO

¿Cuál es el método más popular para crear IA generativa confiable? TRAPO


Organizaciones de todos los tamaños y de todos los sectores se apresuran a aprovechar los beneficios de IA generativadesde mejorar la eficiencia operativa hasta reinventar sus negocios. Pero a medida que adoptan esta tecnología transformadora, se enfrentan a un desafío común: ofrecer resultados precisos.

Éste es un problema crítico: los prejuicios y otras imprecisiones reducen la confianza. Y para las aplicaciones de IA generativa, la confianza lo es todo.

¿La solución? Personalice los modelos de lenguaje grande (LLM), la tecnología de inteligencia artificial clave que impulsa todo, desde chatbots de nivel básico hasta iniciativas de inteligencia artificial de nivel empresarial.

Los LLM por sí solos pueden proporcionar resultados inexactos o demasiado generales para ser útiles. Para generar verdaderamente confianza entre los clientes y otros usuarios de aplicaciones de IA generativa, las empresas deben garantizar respuestas precisas, oportunas y personalizadas. Y eso implica personalizar sus LLM.

Sin embargo, personalizar un LLM puede resultar complejo, consumir mucho tiempo y recursos. Requiere cierta cantidad de experiencia y no todas las organizaciones cuentan con científicos de datos e ingenieros de lenguaje de máquina en su personal. Pero cada vez más organizaciones optan por una técnica de personalización probada y rentable que mejora la precisión y la relevancia y, al mismo tiempo, aprovecha al máximo un recurso que la mayoría de las organizaciones ya tienen en abundancia: los datos.

Cómo RAG mejora la precisión

La generación de datos aumentada (RAG) parece ser una técnica de personalización preferida por las empresas para crear rápidamente aplicaciones de IA generativa precisas y confiables. RAG es un enfoque rápido y fácil de usar que ayuda a reducir las imprecisiones (o “alucinaciones”) y aumentar la relevancia de las respuestas. Es más rentable y requiere menos experiencia que las técnicas que requieren mucha mano de obra, como el ajuste y la formación previa continua de los LLM.

Para los desarrolladores de aplicaciones de IA generativa, RAG proporciona una forma eficiente de crear aplicaciones de IA generativa confiables. Para los clientes, empleados y otros usuarios de estas aplicaciones, RAG significa respuestas más precisas, relevantes y completas que generan confianza a través de respuestas que pueden citar fuentes para mayor transparencia.

La calidad de los resultados de la IA generativa depende de la calidad de los datos que contiene. Por tanto, es fundamental elegir fuentes creíbles para mejorar las respuestas. RAG enriquece los LLM al recuperar y aplicar datos e información de los almacenes de datos de la organización, así como de fuentes externas confiables para proporcionar resultados más precisos. Incluso con un modelo entrenado con datos antiguos, RAG puede actualizarlo con acceso a información actual, casi en tiempo real.

RAG en acción

empresa de reparto de comidas PuertaDash está aplicando RAG a su solución de IA generativa para mejorar el autoservicio y mejorar la experiencia de sus contratistas independientes («Dashers») que envían un gran volumen de solicitudes de soporte.

DoorDash está trabajando con Amazon Web Services (AWS) para complementar su centro de llamadas tradicional con una solución de centro de contacto de autoservicio habilitada por voz. En el corazón de su solución de IA generativa, DoorDash utiliza Claude Models de Anthropic y Amazon Bedrock, un servicio de AWS que ayuda a las organizaciones a crear y escalar aplicaciones de IA generativa de forma rápida y sencilla.

Al utilizar RAG para personalizar la plantilla Claude 3 Haiku, Bedrock permite a DoorDash acceder a una base de conocimiento profunda y diversa de fuentes empresariales para brindar respuestas relevantes y precisas a los Dashers, lo que reduce el tiempo promedio de respuesta a 2,5 segundos o menos. El centro de contacto generativo impulsado por IA de DoorDash ahora maneja cientos de miles de llamadas todos los días.

El acceso a esta amplia base de datos a través de RAG fue clave para generar confianza. «Creamos una solución que brinda a los Dashers acceso confiable a la información que necesitan, cuando la necesitan», dijo Chaitanya Hari, gerente de productos del centro de contacto de DoorDash.

El poder de la personalización

La personalización puede mejorar significativamente la precisión y relevancia de las respuestas, especialmente para casos de uso que requieren aprovechar datos actualizados en tiempo real.

RAG no es la única estrategia de personalización. El ajuste y otras técnicas pueden desempeñar un papel clave en la personalización de los LLM y la creación de aplicaciones de IA generativa. Pero a medida que RAG evolucione y se expandan sus capacidades, seguirá sirviendo como una forma rápida y sencilla de comenzar con la IA generativa y garantizar respuestas mejores y más precisas, generando confianza entre empleados, socios y clientes.


Más información sobre IA generativa de AWS.