Fabrice AI: Implementación técnica actual

En el último post, Fabrice AI: El viaje técnico expliqué el viaje que hicimos para construir Fabrice AI haciendo un círculo completo. Empecé utilizando Chat GPT 3 y 3.5. Decepcionado con los resultados, intenté utilizar el Marco Langchain para construir mi propio modelo de IA sobre él, antes de volver a Chat GPT una vez que empezaron a utilizar bases de datos vectoriales y a mejorar masivamente los resultados con 4o.

Éste es el proceso actual para entrenar a Fabrice AI:

  • Los datos de entrenamiento (entradas de blog, URL de Youtube, URL de podcasts, URL de PDF y URL de imágenes) se almacenan en nuestra base de datos de WordPress.
  • Extraemos los datos y los estructuramos.
  • Proporcionamos los datos estructurados a Open AI para su entrenamiento mediante la API de Asistentes.
  • Open AI crea entonces una base de datos de almacén vectorial y la almacena.

Aquí tienes un ejemplo de dato estructurado. Cada contenido tiene su propio archivo JSON. Nos aseguramos de no superar el límite de 32.000 tokens.

{

«id»: «1»,

«fecha»: » «,

«enlace»: «https://fabricegrinda.com/»,

«título»: {

«renderizado»: «¿Qué es Fabrice AI?»

  },

«Categoría»: «Sobre Fabrice»,

«featured_media»: «https://fabricegrinda.com/wp-content/uploads/2023/12/About-me.png»,

«otros_medios»: «»,

«tipo_conocimiento»: «blog»,

«contenidoActualizado»: «Fabrice AI es una representación digital de los pensamientos de Fabrice basada en las entradas de su blog y en podcasts y entrevistas seleccionadas transcritas mediante ChatGPT.Dado que muchas de las transcripciones están imperfectamente transcritas y que el blog no es más que una representación limitada de Fabrice como individuo, pedimos disculpas por las inexactitudes y la información que falta. No obstante, es un buen punto de partida para conocer las opiniones de Fabrice sobre muchos temas.»

}

Esta es la implementación técnica actual:

  • El sitio web orientado al consumidor está alojado en AWS Amplify.
  • La integración entre el sitio público y Open AI se realiza a través de una capa API, que está alojada en AWS como servidor API Python.
  • Utilizamos MongoDB como registro para almacenar todas las preguntas formuladas por el público, las respuestas dadas por Chat GPT y las URL de las fuentes.
  • Utilizamos varios scripts para estructurar los datos del blog, YouTube, etc. para pasarlos a Open AI para el entrenamiento.
  • Utilizamos el reconocimiento de voz React para convertir las consultas de voz en texto.
  • También utilizamos Google Analytics para hacer un seguimiento del tráfico del sitio web.

Es importante señalar que utilizamos dos ayudantes:

  • Uno para responder preguntas.
  • Uno para obtener las URL de los metadatos, las URL de los blogs que tienen el contenido original para mostrar las fuentes en la parte inferior de las respuestas.

¿Y ahora qué?

  1. Mejoras en la conversión de voz a texto

El modelo Whisper de Open AI para convertir voz en texto es más preciso que React. Además, es compatible con varios idiomas y maneja bien el habla mixta, los acentos y los dialectos. Por ello, lo más probable es que me pase a él en los próximos meses. Dicho esto, es más complejo de configurar, así que puede que tarde un poco. Tienes que manejar el modelo, gestionar las dependencias (por ejemplo, Python, bibliotecas) y asegurarte de que tienes suficiente hardware para un rendimiento eficaz. Además, Whisper no está diseñado para su uso directo en navegadores. Cuando construyes una aplicación web, necesitas crear un servicio backend para gestionar la transcripción, lo que añade complejidad.

  • Avatar de Fabrice AI

Quiero crear un Avatar Fabrice AI que se parezca y suene como yo y con el que puedas mantener una conversación. Evalué D-iD, pero me pareció demasiado caro para mis propósitos. Eleven Labs es sólo voz. Synthesia es genial, pero actualmente no crea vídeos en tiempo real. Al final decidí utilizar HeyGen por su precio y funcionalidad más adecuados.

Sospecho que en algún momento Open AI lanzará su propia solución, por lo que este trabajo habrá sido en vano. Me siento cómodo con ello y cambiaré a la solución de Open AI cuando llegue y si llega. En este momento, el objetivo de todo este ejercicio es aprender qué es posible con la IA y cuánto trabajo requiere para ayudarme a comprender mejor el espacio.

  • Panel de control personalizado

En este momento, necesito ejecutar una consulta MongoDB para obtener un extracto de las preguntas y respuestas del día. Estoy construyendo un sencillo panel de control en el que puedo obtener extracciones y estadísticas sencillas sobre el número de consultas por idioma, el número de peticiones de voz a texto, etc.

  • Fuentes de datos adicionales

Acabamos de subir la Cartera de FJ Labs a Fabrice AI. Ahora puedes preguntar si una empresa forma parte de la cartera. Fabrice AI responde con una breve descripción de la empresa y un enlace a su sitio web.

Dada la cantidad de preguntas personales que la IA de Fabrice recibía y para las que no tenía respuesta, me tomé la molestia de etiquetar manualmente a cada orador de mi Vídeo del 50 cumpleaños para darle el contenido que necesitaba.

Conclusión

Con todo el trabajo que he realizado en los últimos doce meses sobre todo lo relacionado con la IA, parece haber una clara conclusión universal: cuanto más esperes, más barato, fácil y mejor será, ¡y más probable será que la IA Abierta lo ofrezca! Mientras tanto, avísame si tienes alguna pregunta.

Fabrice AI: El viaje técnico

Como mencioné en el post anterior, desarrollar la IA de Fabrice resultó mucho más complejo de lo esperado, lo que me obligó a explorar muchos enfoques diferentes.

El planteamiento inicial: Índice Llama – Búsqueda vectorial

Mi primera incursión en la mejora de las capacidades de recuperación de Fabrice AI consistió en utilizar el Índice Llama para la búsqueda vectorial. El concepto era sencillo: tomar el contenido de mi blog, convertirlo en documentos Langchain y, a continuación, transformarlos en documentos Llama. Estos documentos Llama se almacenarían entonces en un índice vectorial, lo que me permitiría consultar este índice en busca de información relevante.

Sin embargo, cuando empecé a probar el sistema, me di cuenta de que este enfoque no estaba dando los resultados que esperaba. En concreto, cuando formulé al sistema preguntas contextualizadas como «¿Cuáles son los mayores errores que cometen los fundadores de empresas? En lugar de recuperar el contenido matizado que yo sabía que había en los datos, devolvía respuestas irrelevantes o incompletas.

Este fracaso inicial me llevó a reconsiderar mi planteamiento. Me di cuenta de que no bastaba con almacenar el contenido en un índice vectorial; el mecanismo de recuperación debía comprender el contexto y los matices de las preguntas que se formulaban. Esta constatación fue la primera de muchas lecciones que darían forma a la evolución de la IA Fabrice.

Almacenamiento del Conocimiento: Almacenamiento y Recuperación de Documentos MongoDB

Teniendo en cuenta las limitaciones del enfoque del Índice Llama, a continuación exploré la posibilidad de almacenar los documentos Llama en MongoDB. El esquema flexible y la estructura orientada a documentos de MongoDB parecían una solución prometedora para gestionar los diversos tipos de contenido que había acumulado a lo largo de los años.

El plan consistía en crear una experiencia de búsqueda más dinámica y receptiva. Sin embargo, este enfoque no tardó en dar problemas. La funcionalidad de búsqueda, que había previsto que fuera más sólida, no funcionó como se esperaba. Las consultas que deberían haber devuelto documentos relevantes no arrojaban ningún resultado o mostraban contenido irrelevante.

Este contratiempo fue frustrante, pero también puso de relieve una lección fundamental: el método de almacenamiento es tan importante como la estrategia de recuperación. Empecé a considerar otras opciones, como utilizar MongoDB Atlas para búsquedas vectoriales, que potencialmente podría proporcionar la precisión y escalabilidad que necesitaba. Sin embargo, antes de comprometerme con esta alternativa, quise explorar otros enfoques para determinar si podría haber una solución más eficaz.

Recuperador de metadatos y almacén de vectores: En busca de la especificidad

Una de las siguientes vías que exploré fue el uso de un recuperador de metadatos combinado con un almacén vectorial. La idea subyacente a este enfoque era categorizar el vasto conjunto de información de la IA Fabrice y, a continuación, recuperar respuestas basadas en estas categorías. Al estructurar los datos con metadatos, esperaba mejorar la capacidad de la IA para proporcionar respuestas específicas y concretas.

Sin embargo, este método también tenía sus limitaciones. Aunque parecía prometedor a primera vista, la IA tenía dificultades para dar respuestas precisas a todo tipo de consultas. Por ejemplo, cuando pregunté: «¿Es optimista el autor?». el sistema no supo interpretar la pregunta en el contexto del contenido relevante. En lugar de proporcionar un análisis perspicaz basado en los metadatos, devolvía respuestas vagas o ninguna.

Este enfoque me enseñó una valiosa lección sobre la importancia del contexto en la IA. No basta con categorizar la información; la IA también debe comprender cómo interactúan y se superponen estas categorías para formar una comprensión cohesiva del contenido. Sin esta profundidad de comprensión, incluso los métodos de recuperación más sofisticados pueden quedarse cortos.

Estructurar el conocimiento: El Índice de Árbol de Sumario

Mientras seguía perfeccionando la IA de Fabrice, experimenté con la creación de un SummaryTreeIndex. Este enfoque pretendía resumir todos los documentos en un formato de árbol, permitiendo a la IA navegar por estos resúmenes y recuperar información relevante basándose en la estructura del contenido.

La idea era que, resumiendo los documentos, la IA podría identificar rápidamente los puntos clave y responder a las consultas con información concisa y precisa. Sin embargo, este método también se enfrentaba a importantes retos. A la IA le costaba dar respuestas significativas a consultas complejas, como «¿Cómo tomar decisiones importantes en la vida?». En lugar de basarse en el contenido rico en matices almacenado en los resúmenes, las respuestas de la IA eran a menudo superficiales o incompletas.

Esta experiencia puso de relieve la dificultad de equilibrar amplitud y profundidad en la IA. Aunque los resúmenes pueden proporcionar una visión general de alto nivel, a menudo carecen del contexto detallado necesario para responder a preguntas más complejas. Me di cuenta de que cualquier solución eficaz tendría que integrar tanto el contenido detallado como los resúmenes de alto nivel, permitiendo a la IA recurrir a ambos cuando fuera necesario.

Por eso, en la versión de la IA de Fabrice que está actualmente activa, hago que la IA dé primero un resumen de la respuesta, antes de entrar en más detalles.

Ampliando horizontes: Índice del Gráfico de Conocimientos

Reconociendo las limitaciones de los métodos anteriores, recurrí a un enfoque más sofisticado: el Índice de Grafos de Conocimiento. Este enfoque consistía en construir un grafo de conocimiento a partir de texto no estructurado, lo que permitía a la IA realizar consultas basadas en entidades. El objetivo era crear una comprensión más dinámica e interconectada del contenido, que permitiera a la IA de Fabrice responder con mayor eficacia a preguntas complejas y contextualizadas.

A pesar de su promesa, el Índice del Gráfico de Conocimientos también se enfrentó a importantes obstáculos. A la IA le costó producir resultados precisos, sobre todo en las consultas que requerían una comprensión profunda del contexto. Por ejemplo, cuando se le preguntó: «¿Cuáles son las valoraciones justas de Semilla y Serie A?», la IA volvió a fracasar a la hora de dar una respuesta pertinente, lo que pone de manifiesto la dificultad de integrar texto no estructurado en un grafo de conocimiento coherente.

Este enfoque, aunque en última instancia fracasó, proporcionó información importante sobre los retos que plantea el uso de grafos de conocimiento en la IA. La complejidad de los datos y la necesidad de un contexto preciso significaban que incluso un grafo de conocimiento bien construido podía tener dificultades para ofrecer los resultados deseados. Otro inconveniente del Índice de Grafos de Conocimiento era su lentitud. El tiempo de respuesta para obtener documentos relacionados era muy elevado en comparación con un índice de almacén vectorial.

Reevaluación de los datos: Géminis

Tras varios contratiempos, decidí adoptar un enfoque diferente aprovechando la IA de Google, Gemini. La idea era crear conjuntos de datos a partir de archivos JSON-CSV y, a continuación, entrenar un modelo LLM personalizado utilizando estos datos. Esperaba que utilizando datos estructurados y un modelo de entrenamiento robusto, podría superar algunos de los retos que habían plagado los intentos anteriores.

Sin embargo, este enfoque también encontró dificultades. El proceso de entrenamiento se detuvo debido a un formato incorrecto de los datos, que impidió entrenar eficazmente el modelo. Este contratiempo subrayó la importancia de la integridad de los datos en el entrenamiento de la IA. Sin datos correctamente formateados y estructurados, incluso los modelos más avanzados pueden no funcionar como se espera.

Esta experiencia me llevó a considerar el potencial de utilizar BigQuery para almacenar datos JSON, proporcionando una plataforma más escalable y fiable para gestionar los grandes conjuntos de datos necesarios para entrenar eficazmente la IA de Fabrice.

Combinando fuerzas: Documentos Langchain con Pinecone

A pesar de los retos a los que me he enfrentado hasta ahora, estaba decidido a encontrar una solución que permitiera a la IA Fabrice almacenar y recuperar conocimientos de forma eficaz. Esta determinación me llevó a experimentar con documentos Langchain y Pinecone. El enfoque consistía en crear un almacén vectorial Pinecone utilizando documentos Langchain e incrustaciones OpenAI, y luego recuperar los documentos más similares en función de la consulta.

Este método resultó prometedor, sobre todo cuando la consulta incluía el título del documento. Por ejemplo, cuando se le preguntó «¿Cuál es la clave de la felicidad?», la IA fue capaz de recuperar y resumir el contenido relevante con precisión. Sin embargo, seguía habiendo limitaciones, sobre todo cuando la consulta carecía de palabras clave o títulos específicos.

Este enfoque demostró el potencial de combinar distintas tecnologías para mejorar el rendimiento de la IA. Al integrar los documentos de Langchain con el almacén vectorial de Pinecone, pude mejorar la pertinencia y precisión de las respuestas de la IA, aunque con algunas limitaciones.

Conseguir la coherencia: GPT Builder OpenAI

Tras explorar varios métodos y tecnologías, recurrí al GPT Builder de Open AI para consolidar y perfeccionar los conocimientos almacenados en Fabrice AI. Al cargar todo el contenido en una base de conocimientos GPT, pretendía crear una plataforma más coherente y fiable para recuperar mis conocimientos e interactuar con ellos.

Este enfoque resultó ser uno de los más exitosos, ya que la IA fue capaz de proporcionar mejores resultados en una serie de consultas. La clave de este éxito fue la integración de todos los conocimientos en un sistema único y cohesionado, que permitió a la IA aprovechar toda la amplitud de contenidos al responder a las preguntas.

Como mencioné en mi anterior post, no conseguía que funcionara en mi sitio web, y sólo estaba disponible para los suscriptores de pago de Chat GPT, lo que me parecía demasiado limitante. Además, aunque era mejor, seguía sin gustarme la calidad de las respuestas y no me sentía cómoda haciéndolo público.

Refinamiento final: Asistentes GPT Utilizando el Modelo 4o

La pieza final del puzzle en el desarrollo de la IA de Fabrice llegó con la introducción de los Asistentes GPT utilizando el Modelo 4o. Este enfoque representaba la culminación de todo lo que había aprendido a lo largo del proyecto. Utilizando una base de datos vectorial y refinando las instrucciones, mi objetivo era conseguir el mayor nivel posible de precisión y comprensión contextual en las respuestas de la IA.

Este método consistía en cargar todo el conocimiento que había acumulado en una base de datos vectorial, que luego se utilizaba como base para las interacciones de la IA. La base de datos vectorial permitió a la IA realizar búsquedas más sofisticadas, recuperando información basada en el significado semántico de las consultas en lugar de basarse únicamente en la coincidencia de palabras clave. Esto supuso un avance significativo respecto a enfoques anteriores, ya que permitió a la IA comprender y responder mejor a preguntas complejas y matizadas.

Una de las innovaciones clave de este enfoque fue el cuidadoso perfeccionamiento de las instrucciones. Elaborando y probando meticulosamente diferentes preguntas, pude guiar a la IA para que diera respuestas más precisas y pertinentes. Esto implicaba no sólo ajustar la redacción de las preguntas, sino también experimentar con diferentes formas de estructurarlas para obtener las mejores respuestas posibles.

Los resultados fueron impresionantes. La IA era ahora capaz de manejar una amplia gama de consultas con gran precisión, incluso cuando las preguntas eran abiertas o requerían una profunda comprensión del contexto. Por ejemplo, cuando se le preguntó: «¿Cómo tomar las decisiones más importantes de tu vida?». la IA proporcionó una respuesta exhaustiva y perspicaz, recurriendo a diversas fuentes y perspectivas para ofrecer una respuesta completa.

Este éxito fue la culminación de cientos de horas de trabajo e innumerables experimentos. Demostró que, con la combinación adecuada de tecnología y refinamiento, era posible crear una IA que no sólo pudiera almacenar y recuperar información de forma eficaz, sino también interactuar con ella de forma significativa. El desarrollo de los Asistentes GPT utilizando el Modelo 4o marcó el punto en el que la IA de Fabrice alcanzó realmente su plenitud, logrando el nivel de sofisticación y precisión que yo había previsto desde el principio. La API de los Asistentes GPT se integró entonces en mi blog para permitir a los usuarios finales interactuar con la IA de Fabrice de la forma en que la ves ahora en el blog.

Reflexionar sobre el viaje

El proceso de desarrollo de la IA de Fabrice puso de manifiesto las complejidades de trabajar con IA, sobre todo cuando se trata de comprender y contextualizar la información. Me enseñó que no hay atajos en el desarrollo de la IA: cada paso, cada iteración y cada experimento son una parte necesaria del viaje hacia la creación de algo verdaderamente eficaz.

De cara al futuro, me entusiasma seguir perfeccionando y ampliando la IA de Fabrice. Como mencioné en el último post, revisaré las preguntas formuladas para completar la base de conocimientos donde haya lagunas. También espero lanzar finalmente una versión interactiva que se parezca y suene como yo y con la que puedas hablar.

>
This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.