Fabrice Grinda

  • Playing with
    Unicorns
  • Featured
  • Categories
  • Portfolio
  • About Me
  • Newsletter
  • AI
  • ES
    • EN
    • FR
    • AR
    • BN
    • DA
    • DE
    • FA
    • HI
    • ID
    • IT
    • JA
    • KO
    • NL
    • PL
    • PT-BR
    • PT-PT
    • RO
    • RU
    • TH
    • UK
    • UR
    • VI
    • ZH-HANS
    • ZH-HANT
× Image Description

Subscribe to Fabrice's Newsletter

Tech Entrepreneurship, Economics, Life Philosophy and much more!

Check your inbox or spam folder to confirm your subscription.

Menu

  • ES
    • EN
    • FR
    • AR
    • BN
    • DA
    • DE
    • FA
    • HI
    • ID
    • IT
    • JA
    • KO
    • NL
    • PL
    • PT-BR
    • PT-PT
    • RO
    • RU
    • TH
    • UK
    • UR
    • VI
    • ZH-HANS
    • ZH-HANT
  • Home
  • Playing with Unicorns
  • Featured
  • Categories
  • Portfolio
  • About Me
  • Newsletter
  • Privacy Policy
Ir al contenido
Fabrice Grinda

Internet entrepreneurs and investors

× Image Description

Subscribe to Fabrice's Newsletter

Tech Entrepreneurship, Economics, Life Philosophy and much more!

Check your inbox or spam folder to confirm your subscription.

Fabrice Grinda

Internet entrepreneurs and investors

Mes: septiembre 2024

Fabrice AI: Implementación técnica actual

Fabrice AI: Implementación técnica actual

En el último post, Fabrice AI: El viaje técnico expliqué el viaje que hicimos para construir Fabrice AI haciendo un círculo completo. Empecé utilizando Chat GPT 3 y 3.5. Decepcionado con los resultados, intenté utilizar el Marco Langchain para construir mi propio modelo de IA sobre él, antes de volver a Chat GPT una vez que empezaron a utilizar bases de datos vectoriales y a mejorar masivamente los resultados con 4o.

Éste es el proceso actual para entrenar a Fabrice AI:

  • Los datos de entrenamiento (entradas de blog, URL de Youtube, URL de podcasts, URL de PDF y URL de imágenes) se almacenan en nuestra base de datos de WordPress.
  • Extraemos los datos y los estructuramos.
  • Proporcionamos los datos estructurados a Open AI para su entrenamiento mediante la API de Asistentes.
  • Open AI crea entonces una base de datos de almacén vectorial y la almacena.

Aquí tienes un ejemplo de dato estructurado. Cada contenido tiene su propio archivo JSON. Nos aseguramos de no superar el límite de 32.000 tokens.

{

«id»: «1»,

«fecha»: » «,

«enlace»: «https://fabricegrinda.com/»,

«título»: {

«renderizado»: «¿Qué es Fabrice AI?»

  },

«Categoría»: «Sobre Fabrice»,

«featured_media»: «https://fabricegrinda.com/wp-content/uploads/2023/12/About-me.png»,

«otros_medios»: «»,

«tipo_conocimiento»: «blog»,

«contenidoActualizado»: «Fabrice AI es una representación digital de los pensamientos de Fabrice basada en las entradas de su blog y en podcasts y entrevistas seleccionadas transcritas mediante ChatGPT.Dado que muchas de las transcripciones están imperfectamente transcritas y que el blog no es más que una representación limitada de Fabrice como individuo, pedimos disculpas por las inexactitudes y la información que falta. No obstante, es un buen punto de partida para conocer las opiniones de Fabrice sobre muchos temas.»

}

Esta es la implementación técnica actual:

  • El sitio web orientado al consumidor está alojado en AWS Amplify.
  • La integración entre el sitio público y Open AI se realiza a través de una capa API, que está alojada en AWS como servidor API Python.
  • Utilizamos MongoDB como registro para almacenar todas las preguntas formuladas por el público, las respuestas dadas por Chat GPT y las URL de las fuentes.
  • Utilizamos varios scripts para estructurar los datos del blog, YouTube, etc. para pasarlos a Open AI para el entrenamiento.
  • Utilizamos el reconocimiento de voz React para convertir las consultas de voz en texto.
  • También utilizamos Google Analytics para hacer un seguimiento del tráfico del sitio web.

Es importante señalar que utilizamos dos ayudantes:

  • Uno para responder preguntas.
  • Uno para obtener las URL de los metadatos, las URL de los blogs que tienen el contenido original para mostrar las fuentes en la parte inferior de las respuestas.

¿Y ahora qué?

  1. Mejoras en la conversión de voz a texto

El modelo Whisper de Open AI para convertir voz en texto es más preciso que React. Además, es compatible con varios idiomas y maneja bien el habla mixta, los acentos y los dialectos. Por ello, lo más probable es que me pase a él en los próximos meses. Dicho esto, es más complejo de configurar, así que puede que tarde un poco. Tienes que manejar el modelo, gestionar las dependencias (por ejemplo, Python, bibliotecas) y asegurarte de que tienes suficiente hardware para un rendimiento eficaz. Además, Whisper no está diseñado para su uso directo en navegadores. Cuando construyes una aplicación web, necesitas crear un servicio backend para gestionar la transcripción, lo que añade complejidad.

  • Avatar de Fabrice AI

Quiero crear un Avatar Fabrice AI que se parezca y suene como yo y con el que puedas mantener una conversación. Evalué D-iD, pero me pareció demasiado caro para mis propósitos. Eleven Labs es sólo voz. Synthesia es genial, pero actualmente no crea vídeos en tiempo real. Al final decidí utilizar HeyGen por su precio y funcionalidad más adecuados.

Sospecho que en algún momento Open AI lanzará su propia solución, por lo que este trabajo habrá sido en vano. Me siento cómodo con ello y cambiaré a la solución de Open AI cuando llegue y si llega. En este momento, el objetivo de todo este ejercicio es aprender qué es posible con la IA y cuánto trabajo requiere para ayudarme a comprender mejor el espacio.

  • Panel de control personalizado

En este momento, necesito ejecutar una consulta MongoDB para obtener un extracto de las preguntas y respuestas del día. Estoy construyendo un sencillo panel de control en el que puedo obtener extracciones y estadísticas sencillas sobre el número de consultas por idioma, el número de peticiones de voz a texto, etc.

  • Fuentes de datos adicionales

Acabamos de subir la Cartera de FJ Labs a Fabrice AI. Ahora puedes preguntar si una empresa forma parte de la cartera. Fabrice AI responde con una breve descripción de la empresa y un enlace a su sitio web.

Dada la cantidad de preguntas personales que la IA de Fabrice recibía y para las que no tenía respuesta, me tomé la molestia de etiquetar manualmente a cada orador de mi Vídeo del 50 cumpleaños para darle el contenido que necesitaba.

Conclusión

Con todo el trabajo que he realizado en los últimos doce meses sobre todo lo relacionado con la IA, parece haber una clara conclusión universal: cuanto más esperes, más barato, fácil y mejor será, ¡y más probable será que la IA Abierta lo ofrezca! Mientras tanto, avísame si tienes alguna pregunta.

Autor Rose BrownPublicado el septiembre 30, 2024octubre 1, 2024Categorías Gadgets tecnológicos, Reflexiones personalesDeja un comentario en Fabrice AI: Implementación técnica actual

Fabrice AI: El viaje técnico

Fabrice AI: El viaje técnico

Como mencioné en el post anterior, desarrollar la IA de Fabrice resultó mucho más complejo de lo esperado, lo que me obligó a explorar muchos enfoques diferentes.

El planteamiento inicial: Índice Llama – Búsqueda vectorial

Mi primera incursión en la mejora de las capacidades de recuperación de Fabrice AI consistió en utilizar el Índice Llama para la búsqueda vectorial. El concepto era sencillo: tomar el contenido de mi blog, convertirlo en documentos Langchain y, a continuación, transformarlos en documentos Llama. Estos documentos Llama se almacenarían entonces en un índice vectorial, lo que me permitiría consultar este índice en busca de información relevante.

Sin embargo, cuando empecé a probar el sistema, me di cuenta de que este enfoque no estaba dando los resultados que esperaba. En concreto, cuando formulé al sistema preguntas contextualizadas como «¿Cuáles son los mayores errores que cometen los fundadores de empresas? En lugar de recuperar el contenido matizado que yo sabía que había en los datos, devolvía respuestas irrelevantes o incompletas.

Este fracaso inicial me llevó a reconsiderar mi planteamiento. Me di cuenta de que no bastaba con almacenar el contenido en un índice vectorial; el mecanismo de recuperación debía comprender el contexto y los matices de las preguntas que se formulaban. Esta constatación fue la primera de muchas lecciones que darían forma a la evolución de la IA Fabrice.

Almacenamiento del Conocimiento: Almacenamiento y Recuperación de Documentos MongoDB

Teniendo en cuenta las limitaciones del enfoque del Índice Llama, a continuación exploré la posibilidad de almacenar los documentos Llama en MongoDB. El esquema flexible y la estructura orientada a documentos de MongoDB parecían una solución prometedora para gestionar los diversos tipos de contenido que había acumulado a lo largo de los años.

El plan consistía en crear una experiencia de búsqueda más dinámica y receptiva. Sin embargo, este enfoque no tardó en dar problemas. La funcionalidad de búsqueda, que había previsto que fuera más sólida, no funcionó como se esperaba. Las consultas que deberían haber devuelto documentos relevantes no arrojaban ningún resultado o mostraban contenido irrelevante.

Este contratiempo fue frustrante, pero también puso de relieve una lección fundamental: el método de almacenamiento es tan importante como la estrategia de recuperación. Empecé a considerar otras opciones, como utilizar MongoDB Atlas para búsquedas vectoriales, que potencialmente podría proporcionar la precisión y escalabilidad que necesitaba. Sin embargo, antes de comprometerme con esta alternativa, quise explorar otros enfoques para determinar si podría haber una solución más eficaz.

Recuperador de metadatos y almacén de vectores: En busca de la especificidad

Una de las siguientes vías que exploré fue el uso de un recuperador de metadatos combinado con un almacén vectorial. La idea subyacente a este enfoque era categorizar el vasto conjunto de información de la IA Fabrice y, a continuación, recuperar respuestas basadas en estas categorías. Al estructurar los datos con metadatos, esperaba mejorar la capacidad de la IA para proporcionar respuestas específicas y concretas.

Sin embargo, este método también tenía sus limitaciones. Aunque parecía prometedor a primera vista, la IA tenía dificultades para dar respuestas precisas a todo tipo de consultas. Por ejemplo, cuando pregunté: «¿Es optimista el autor?». el sistema no supo interpretar la pregunta en el contexto del contenido relevante. En lugar de proporcionar un análisis perspicaz basado en los metadatos, devolvía respuestas vagas o ninguna.

Este enfoque me enseñó una valiosa lección sobre la importancia del contexto en la IA. No basta con categorizar la información; la IA también debe comprender cómo interactúan y se superponen estas categorías para formar una comprensión cohesiva del contenido. Sin esta profundidad de comprensión, incluso los métodos de recuperación más sofisticados pueden quedarse cortos.

Estructurar el conocimiento: El Índice de Árbol de Sumario

Mientras seguía perfeccionando la IA de Fabrice, experimenté con la creación de un SummaryTreeIndex. Este enfoque pretendía resumir todos los documentos en un formato de árbol, permitiendo a la IA navegar por estos resúmenes y recuperar información relevante basándose en la estructura del contenido.

La idea era que, resumiendo los documentos, la IA podría identificar rápidamente los puntos clave y responder a las consultas con información concisa y precisa. Sin embargo, este método también se enfrentaba a importantes retos. A la IA le costaba dar respuestas significativas a consultas complejas, como «¿Cómo tomar decisiones importantes en la vida?». En lugar de basarse en el contenido rico en matices almacenado en los resúmenes, las respuestas de la IA eran a menudo superficiales o incompletas.

Esta experiencia puso de relieve la dificultad de equilibrar amplitud y profundidad en la IA. Aunque los resúmenes pueden proporcionar una visión general de alto nivel, a menudo carecen del contexto detallado necesario para responder a preguntas más complejas. Me di cuenta de que cualquier solución eficaz tendría que integrar tanto el contenido detallado como los resúmenes de alto nivel, permitiendo a la IA recurrir a ambos cuando fuera necesario.

Por eso, en la versión de la IA de Fabrice que está actualmente activa, hago que la IA dé primero un resumen de la respuesta, antes de entrar en más detalles.

Ampliando horizontes: Índice del Gráfico de Conocimientos

Reconociendo las limitaciones de los métodos anteriores, recurrí a un enfoque más sofisticado: el Índice de Grafos de Conocimiento. Este enfoque consistía en construir un grafo de conocimiento a partir de texto no estructurado, lo que permitía a la IA realizar consultas basadas en entidades. El objetivo era crear una comprensión más dinámica e interconectada del contenido, que permitiera a la IA de Fabrice responder con mayor eficacia a preguntas complejas y contextualizadas.

A pesar de su promesa, el Índice del Gráfico de Conocimientos también se enfrentó a importantes obstáculos. A la IA le costó producir resultados precisos, sobre todo en las consultas que requerían una comprensión profunda del contexto. Por ejemplo, cuando se le preguntó: «¿Cuáles son las valoraciones justas de Semilla y Serie A?», la IA volvió a fracasar a la hora de dar una respuesta pertinente, lo que pone de manifiesto la dificultad de integrar texto no estructurado en un grafo de conocimiento coherente.

Este enfoque, aunque en última instancia fracasó, proporcionó información importante sobre los retos que plantea el uso de grafos de conocimiento en la IA. La complejidad de los datos y la necesidad de un contexto preciso significaban que incluso un grafo de conocimiento bien construido podía tener dificultades para ofrecer los resultados deseados. Otro inconveniente del Índice de Grafos de Conocimiento era su lentitud. El tiempo de respuesta para obtener documentos relacionados era muy elevado en comparación con un índice de almacén vectorial.

Reevaluación de los datos: Géminis

Tras varios contratiempos, decidí adoptar un enfoque diferente aprovechando la IA de Google, Gemini. La idea era crear conjuntos de datos a partir de archivos JSON-CSV y, a continuación, entrenar un modelo LLM personalizado utilizando estos datos. Esperaba que utilizando datos estructurados y un modelo de entrenamiento robusto, podría superar algunos de los retos que habían plagado los intentos anteriores.

Sin embargo, este enfoque también encontró dificultades. El proceso de entrenamiento se detuvo debido a un formato incorrecto de los datos, que impidió entrenar eficazmente el modelo. Este contratiempo subrayó la importancia de la integridad de los datos en el entrenamiento de la IA. Sin datos correctamente formateados y estructurados, incluso los modelos más avanzados pueden no funcionar como se espera.

Esta experiencia me llevó a considerar el potencial de utilizar BigQuery para almacenar datos JSON, proporcionando una plataforma más escalable y fiable para gestionar los grandes conjuntos de datos necesarios para entrenar eficazmente la IA de Fabrice.

Combinando fuerzas: Documentos Langchain con Pinecone

A pesar de los retos a los que me he enfrentado hasta ahora, estaba decidido a encontrar una solución que permitiera a la IA Fabrice almacenar y recuperar conocimientos de forma eficaz. Esta determinación me llevó a experimentar con documentos Langchain y Pinecone. El enfoque consistía en crear un almacén vectorial Pinecone utilizando documentos Langchain e incrustaciones OpenAI, y luego recuperar los documentos más similares en función de la consulta.

Este método resultó prometedor, sobre todo cuando la consulta incluía el título del documento. Por ejemplo, cuando se le preguntó «¿Cuál es la clave de la felicidad?», la IA fue capaz de recuperar y resumir el contenido relevante con precisión. Sin embargo, seguía habiendo limitaciones, sobre todo cuando la consulta carecía de palabras clave o títulos específicos.

Este enfoque demostró el potencial de combinar distintas tecnologías para mejorar el rendimiento de la IA. Al integrar los documentos de Langchain con el almacén vectorial de Pinecone, pude mejorar la pertinencia y precisión de las respuestas de la IA, aunque con algunas limitaciones.

Conseguir la coherencia: GPT Builder OpenAI

Tras explorar varios métodos y tecnologías, recurrí al GPT Builder de Open AI para consolidar y perfeccionar los conocimientos almacenados en Fabrice AI. Al cargar todo el contenido en una base de conocimientos GPT, pretendía crear una plataforma más coherente y fiable para recuperar mis conocimientos e interactuar con ellos.

Este enfoque resultó ser uno de los más exitosos, ya que la IA fue capaz de proporcionar mejores resultados en una serie de consultas. La clave de este éxito fue la integración de todos los conocimientos en un sistema único y cohesionado, que permitió a la IA aprovechar toda la amplitud de contenidos al responder a las preguntas.

Como mencioné en mi anterior post, no conseguía que funcionara en mi sitio web, y sólo estaba disponible para los suscriptores de pago de Chat GPT, lo que me parecía demasiado limitante. Además, aunque era mejor, seguía sin gustarme la calidad de las respuestas y no me sentía cómoda haciéndolo público.

Refinamiento final: Asistentes GPT Utilizando el Modelo 4o

La pieza final del puzzle en el desarrollo de la IA de Fabrice llegó con la introducción de los Asistentes GPT utilizando el Modelo 4o. Este enfoque representaba la culminación de todo lo que había aprendido a lo largo del proyecto. Utilizando una base de datos vectorial y refinando las instrucciones, mi objetivo era conseguir el mayor nivel posible de precisión y comprensión contextual en las respuestas de la IA.

Este método consistía en cargar todo el conocimiento que había acumulado en una base de datos vectorial, que luego se utilizaba como base para las interacciones de la IA. La base de datos vectorial permitió a la IA realizar búsquedas más sofisticadas, recuperando información basada en el significado semántico de las consultas en lugar de basarse únicamente en la coincidencia de palabras clave. Esto supuso un avance significativo respecto a enfoques anteriores, ya que permitió a la IA comprender y responder mejor a preguntas complejas y matizadas.

Una de las innovaciones clave de este enfoque fue el cuidadoso perfeccionamiento de las instrucciones. Elaborando y probando meticulosamente diferentes preguntas, pude guiar a la IA para que diera respuestas más precisas y pertinentes. Esto implicaba no sólo ajustar la redacción de las preguntas, sino también experimentar con diferentes formas de estructurarlas para obtener las mejores respuestas posibles.

Los resultados fueron impresionantes. La IA era ahora capaz de manejar una amplia gama de consultas con gran precisión, incluso cuando las preguntas eran abiertas o requerían una profunda comprensión del contexto. Por ejemplo, cuando se le preguntó: «¿Cómo tomar las decisiones más importantes de tu vida?». la IA proporcionó una respuesta exhaustiva y perspicaz, recurriendo a diversas fuentes y perspectivas para ofrecer una respuesta completa.

Este éxito fue la culminación de cientos de horas de trabajo e innumerables experimentos. Demostró que, con la combinación adecuada de tecnología y refinamiento, era posible crear una IA que no sólo pudiera almacenar y recuperar información de forma eficaz, sino también interactuar con ella de forma significativa. El desarrollo de los Asistentes GPT utilizando el Modelo 4o marcó el punto en el que la IA de Fabrice alcanzó realmente su plenitud, logrando el nivel de sofisticación y precisión que yo había previsto desde el principio. La API de los Asistentes GPT se integró entonces en mi blog para permitir a los usuarios finales interactuar con la IA de Fabrice de la forma en que la ves ahora en el blog.

Reflexionar sobre el viaje

El proceso de desarrollo de la IA de Fabrice puso de manifiesto las complejidades de trabajar con IA, sobre todo cuando se trata de comprender y contextualizar la información. Me enseñó que no hay atajos en el desarrollo de la IA: cada paso, cada iteración y cada experimento son una parte necesaria del viaje hacia la creación de algo verdaderamente eficaz.

De cara al futuro, me entusiasma seguir perfeccionando y ampliando la IA de Fabrice. Como mencioné en el último post, revisaré las preguntas formuladas para completar la base de conocimientos donde haya lagunas. También espero lanzar finalmente una versión interactiva que se parezca y suene como yo y con la que puedas hablar.

Autor Rose BrownPublicado el septiembre 4, 2024septiembre 5, 2024Categorías Reflexiones personales, Gadgets tecnológicosDeja un comentario en Fabrice AI: El viaje técnico

Search

Recent Posts

  • El sentido de la vida
  • Actualización FJ Labs Q2 2025
  • Conversación sobre el mundo del DaaS con Auren Hoffman: carteras diversificadas, ventas secundarias y cenas de gala
  • Episodio 50: Tendencias del mercado de riesgo
  • Descifrando el futuro: IA, Mercado de Riesgos y Mercados

Recent Comments

    Archives

    • julio 2025
    • junio 2025
    • mayo 2025
    • abril 2025
    • marzo 2025
    • febrero 2025
    • enero 2025
    • diciembre 2024
    • noviembre 2024
    • octubre 2024
    • septiembre 2024
    • agosto 2024
    • julio 2024
    • junio 2024
    • mayo 2024
    • abril 2024
    • marzo 2024
    • febrero 2024
    • enero 2024
    • diciembre 2023
    • noviembre 2023
    • octubre 2023
    • septiembre 2023
    • agosto 2023
    • junio 2023
    • mayo 2023
    • abril 2023
    • marzo 2023
    • febrero 2023
    • enero 2023
    • diciembre 2022
    • noviembre 2022
    • octubre 2022
    • septiembre 2022
    • agosto 2022
    • junio 2022
    • mayo 2022
    • abril 2022
    • marzo 2022
    • febrero 2022
    • enero 2022
    • noviembre 2021
    • octubre 2021
    • septiembre 2021
    • agosto 2021
    • julio 2021
    • junio 2021
    • abril 2021
    • marzo 2021
    • febrero 2021
    • enero 2021
    • diciembre 2020
    • noviembre 2020
    • octubre 2020
    • septiembre 2020
    • agosto 2020
    • julio 2020
    • junio 2020
    • mayo 2020
    • abril 2020
    • marzo 2020
    • febrero 2020
    • enero 2020
    • noviembre 2019
    • octubre 2019
    • septiembre 2019
    • agosto 2019
    • julio 2019
    • junio 2019
    • abril 2019
    • marzo 2019
    • febrero 2019
    • enero 2019
    • diciembre 2018
    • noviembre 2018
    • octubre 2018
    • agosto 2018
    • junio 2018
    • mayo 2018
    • marzo 2018
    • febrero 2018
    • enero 2018
    • diciembre 2017
    • noviembre 2017
    • octubre 2017
    • septiembre 2017
    • agosto 2017
    • julio 2017
    • junio 2017
    • mayo 2017
    • abril 2017
    • marzo 2017
    • febrero 2017
    • enero 2017
    • diciembre 2016
    • noviembre 2016
    • octubre 2016
    • septiembre 2016
    • agosto 2016
    • julio 2016
    • junio 2016
    • mayo 2016
    • abril 2016
    • marzo 2016
    • febrero 2016
    • enero 2016
    • diciembre 2015
    • noviembre 2015
    • septiembre 2015
    • agosto 2015
    • julio 2015
    • junio 2015
    • mayo 2015
    • abril 2015
    • marzo 2015
    • febrero 2015
    • enero 2015
    • diciembre 2014
    • noviembre 2014
    • octubre 2014
    • septiembre 2014
    • agosto 2014
    • julio 2014
    • junio 2014
    • mayo 2014
    • abril 2014
    • febrero 2014
    • enero 2014
    • diciembre 2013
    • noviembre 2013
    • octubre 2013
    • septiembre 2013
    • agosto 2013
    • julio 2013
    • junio 2013
    • mayo 2013
    • abril 2013
    • marzo 2013
    • febrero 2013
    • enero 2013
    • diciembre 2012
    • noviembre 2012
    • octubre 2012
    • septiembre 2012
    • agosto 2012
    • julio 2012
    • junio 2012
    • mayo 2012
    • abril 2012
    • marzo 2012
    • febrero 2012
    • enero 2012
    • diciembre 2011
    • noviembre 2011
    • octubre 2011
    • septiembre 2011
    • agosto 2011
    • julio 2011
    • junio 2011
    • mayo 2011
    • abril 2011
    • marzo 2011
    • febrero 2011
    • enero 2011
    • diciembre 2010
    • noviembre 2010
    • octubre 2010
    • septiembre 2010
    • agosto 2010
    • julio 2010
    • junio 2010
    • mayo 2010
    • abril 2010
    • marzo 2010
    • febrero 2010
    • enero 2010
    • diciembre 2009
    • noviembre 2009
    • octubre 2009
    • septiembre 2009
    • agosto 2009
    • julio 2009
    • junio 2009
    • mayo 2009
    • abril 2009
    • marzo 2009
    • febrero 2009
    • enero 2009
    • diciembre 2008
    • noviembre 2008
    • octubre 2008
    • septiembre 2008
    • agosto 2008
    • julio 2008
    • junio 2008
    • mayo 2008
    • abril 2008
    • marzo 2008
    • febrero 2008
    • enero 2008
    • diciembre 2007
    • noviembre 2007
    • octubre 2007
    • septiembre 2007
    • agosto 2007
    • julio 2007
    • junio 2007
    • mayo 2007
    • abril 2007
    • marzo 2007
    • febrero 2007
    • enero 2007
    • diciembre 2006
    • noviembre 2006
    • octubre 2006
    • septiembre 2006
    • agosto 2006
    • julio 2006
    • junio 2006
    • mayo 2006
    • abril 2006
    • marzo 2006
    • febrero 2006
    • enero 2006
    • diciembre 2005
    • noviembre 2005

    Categories

    • Entradas destacadas
    • Nueva York
    • Resumen del año
    • Reproduce
    • Iniciativa empresarial
    • Felicidad
    • Discursos
    • OLX
    • Jugar con unicornios
    • Laboratorios FJ
    • Entrevistas y tertulias
    • Películas y programas de TV
    • Reflexiones personales
    • Libros
    • Reflexiones empresariales
    • Cripto/Web3
    • Videojuegos
    • Economía
    • Mercados
    • Gadgets tecnológicos
    • Viajes
    • Resumen del año
    • Optimización de la vida
    • Laboratorios FJ
    • Toma de decisiones
    • Economía
    • Activo Vida Ligera
    • Reflexiones
    • Optimismo y felicidad
    • Perros

    Meta

    • Acceder
    • Feed de entradas
    • Feed de comentarios
    • WordPress.org
    • Home
    • Playing with Unicorns
    • Featured
    • Categories
    • Portfolio
    • About Me
    • Newsletter
    • Privacy Policy
    × Image Description

    Subscribe to Fabrice's Newsletter

    Tech Entrepreneurship, Economics, Life Philosophy and much more!

    Check your inbox or spam folder to confirm your subscription.

    >
    This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.