Fabrice Grinda

  • Playing with
    Unicorns
  • Featured
  • Categories
  • Portfolio
  • About Me
  • Newsletter
  • AI
  • PT-PT
    • EN
    • FR
    • AR
    • BN
    • DA
    • DE
    • ES
    • FA
    • HI
    • ID
    • IT
    • JA
    • KO
    • NL
    • PL
    • PT-BR
    • RO
    • RU
    • TH
    • UK
    • UR
    • VI
    • ZH-HANS
    • ZH-HANT
× Image Description

Subscribe to Fabrice's Newsletter

Tech Entrepreneurship, Economics, Life Philosophy and much more!

Check your inbox or spam folder to confirm your subscription.

Menu

  • PT-PT
    • EN
    • FR
    • AR
    • BN
    • DA
    • DE
    • ES
    • FA
    • HI
    • ID
    • IT
    • JA
    • KO
    • NL
    • PL
    • PT-BR
    • RO
    • RU
    • TH
    • UK
    • UR
    • VI
    • ZH-HANS
    • ZH-HANT
  • Home
  • Playing with Unicorns
  • Featured
  • Categories
  • Portfolio
  • About Me
  • Newsletter
  • Privacy Policy
Saltar para o conteúdo
Fabrice Grinda

Internet entrepreneurs and investors

× Image Description

Subscribe to Fabrice's Newsletter

Tech Entrepreneurship, Economics, Life Philosophy and much more!

Check your inbox or spam folder to confirm your subscription.

Fabrice Grinda

Internet entrepreneurs and investors

Mês: Setembro 2024

Fabrice AI: Implementação técnica atual

Fabrice AI: Implementação técnica atual

Na última publicação, Fabrice AI: O percurso técnico, expliquei o percurso que fizemos para construir a Fabrice AI, fazendo um círculo completo. Comecei por usar o Chat GPT 3 e 3.5. Desapontado com os resultados, tentei utilizar o Langchain Framework para construir o meu próprio modelo de IA em cima dele, antes de voltar ao Chat GPT quando começaram a utilizar bases de dados vectoriais e a melhorar imenso os resultados com o 4o.

Eis o processo atual de formação da IA do Fabrice:

  • Os dados de treino (publicações de blogues, URLs do Youtube, URLs de podcasts, URLs de PDFs e URLs de imagens) são armazenados na nossa base de dados WordPress.
  • Extraímos os dados e estruturamo-los.
  • Fornecemos os dados estruturados à Open AI para treino utilizando a API Assistants.
  • Em seguida, o Open AI cria uma base de dados de armazenamento de vectores e armazena-a.

Eis um exemplo de um dado estruturado. Cada parte do conteúdo tem o seu próprio ficheiro JSON. Certificamo-nos de que não excedemos o limite de 32.000 fichas.

{

“id”: “1”,

“data”: ” “,

“link”: “https://fabricegrinda.com/”,

“título”: {

“renderizado”: “O que é a IA do Fabrice?”

  },

“Categoria”: “Sobre o Fabrice”,

“featured_media”: “https://fabricegrinda.com/wp-content/uploads/2023/12/About-me.png”,

“outros_meios”: “”,

“tipo de conhecimento”: “blogue”,

“contentUpdated”: “Dado que muitas das transcrições são imperfeitas e que o blogue é apenas uma representação limitada da pessoa Fabrice, pedimos desculpa pelas imprecisões e informações em falta. No entanto, este é um bom ponto de partida para conheceres as ideias de Fabrice sobre muitos temas.”

}

Esta é a implementação técnica atual:

  • O sítio Web virado para o consumidor está alojado no AWS Amplify.
  • A integração entre o sítio público e o Open AI é feita através de uma camada de API, que está alojada no AWS como um servidor de API Python.
  • Usamos o MongoDB como registo para armazenar todas as perguntas feitas pelo público, as respostas dadas pelo Chat GPT e os URLs das fontes.
  • Utilizamos vários scripts para estruturar os dados do blogue, do YouTube, etc., para os transmitir à Open AI para treino.
  • Utilizamos o React-Speech Recognition para converter as perguntas de voz em texto.
  • Também utilizamos o Google Analytics para controlar o tráfego do sítio Web.

É importante notar que utilizamos dois assistentes:

  • Um para responderes a perguntas.
  • Um para obter URLs de metadados, os URLs de blogues que têm o conteúdo original para apresentar as fontes no fundo das respostas.

O que vais fazer agora?

  1. Melhorias na conversão de voz em texto

O modelo Whisper da Open AI para conversão de voz em texto é mais preciso do que o React. Também suporta vários idiomas de imediato e é bom a lidar com discurso em vários idiomas, sotaques e dialectos. Por isso, é muito provável que o utilize nos próximos meses. Dito isto, a sua configuração é mais complexa, pelo que pode demorar algum tempo. Tens de tratar do modelo, gerir as dependências (por exemplo, Python, bibliotecas) e garantir que tens hardware suficiente para um desempenho eficiente. Além disso, o Whisper não foi concebido para utilização direta em browsers. Quando constrói uma aplicação Web, tem de criar um serviço de backend para tratar a transcrição, o que aumenta a complexidade.

  • Avatar de Fabrice AI

Quero criar um avatar Fabrice AI que se pareça e soe como eu e com o qual possas ter uma conversa. Avaliei o D-iD, mas achei-o demasiado caro para os meus objectivos. O Eleven Labs é apenas para voz. O Synthesia é ótimo, mas atualmente não cria vídeos em tempo real. No final, decidi utilizar o HeyGen devido ao preço e à funcionalidade mais adequados.

Suspeito que, a dada altura, a Open AI lançará a sua própria solução, pelo que este trabalho terá sido em vão. Não me importo com isso e mudarei para a solução Open AI quando e se esta for lançada. Nesta fase, o objetivo de todo este exercício é aprender o que é possível fazer com a IA e quanto trabalho é necessário para me ajudar a compreender melhor o espaço.

  • Painel de controlo personalizado

Neste momento, preciso de executar uma consulta MongoDB para obter um extrato das perguntas e respostas do dia. Estou a construir um painel de controlo simples onde posso obter extracções e estatísticas simples sobre o número de consultas por língua, o número de pedidos de voz para texto, etc.

  • Fontes de dados adicionais

Acabámos de carregar o portfólio da FJ Labs na Fabrice AI. Agora, podes perguntar se uma empresa faz parte do portefólio. A Fabrice AI responde com uma breve descrição da empresa e uma ligação ao seu sítio Web.

Dado o número de perguntas pessoais que a Fabrice AI estava a receber e para as quais não tinha resposta, dediquei algum tempo a etiquetar manualmente cada orador no meu vídeo do 50º aniversário para lhe dar o conteúdo de que necessitava.

Conclusão

Com todo o trabalho que fiz nos últimos doze meses sobre todas as coisas relacionadas com a IA, parece haver uma conclusão universal clara: quanto mais esperares, mais barato, mais fácil e melhor se torna, e mais provável é que a IA aberta o ofereça! Entretanto, avisa-me se tiveres alguma dúvida.

Autor Rose BrownPublicado em Setembro 30, 2024Outubro 1, 2024Categorias Gadgets tecnológicos, Reflexões pessoaisDeixe um comentário sobre Fabrice AI: Implementação técnica atual

Fabrice AI: O percurso técnico

Fabrice AI: O percurso técnico

Como referi no post anterior, o desenvolvimento da IA do Fabrice revelou-se muito mais complexo do que o esperado, obrigando-me a explorar muitas abordagens diferentes.

A abordagem inicial: Índice Llama – Pesquisa Vetorial

A minha primeira incursão para melhorar as capacidades de recuperação do Fabrice AI envolveu a utilização do Índice Llama para pesquisa vetorial. O conceito era simples: pegar no conteúdo do meu blogue, convertê-lo em documentos Langchain e depois transformá-los em documentos Llama. Estes documentos Llama seriam depois armazenados num índice vetorial, permitindo-me consultar este índice para obter informações relevantes.

No entanto, quando comecei a testar o sistema, tornou-se evidente que esta abordagem não estava a produzir os resultados que eu esperava. Especificamente, quando questionei o sistema com perguntas de contexto pesado, como “Quais são os maiores erros que os fundadores de mercados cometem?”, a IA não conseguiu dar respostas significativas. Em vez de recuperar o conteúdo diferenciado que eu sabia que estava embutido nos dados, ela retornava respostas irrelevantes ou incompletas.

Este fracasso inicial levou-me a reconsiderar a minha abordagem. Apercebi-me de que não bastava armazenar o conteúdo num índice vetorial; o mecanismo de recuperação tinha de compreender o contexto e as nuances das perguntas que estavam a ser feitas. Esta constatação foi a primeira de muitas lições que iriam moldar a evolução da Fabrice AI.

Armazenamento de conhecimento: Armazenamento e recuperação de documentos MongoDB

Com as limitações da abordagem do índice Llama em mente, explorei em seguida o armazenamento dos documentos Llama no MongoDB. O esquema flexível e a estrutura orientada para documentos do MongoDB pareciam ser uma solução promissora para gerir os diversos tipos de conteúdo que tinha acumulado ao longo dos anos.

O plano era criar uma experiência de pesquisa mais dinâmica e reactiva. No entanto, esta abordagem rapidamente se deparou com problemas. A funcionalidade de pesquisa, que eu tinha previsto ser mais robusta, não teve o desempenho esperado. As consultas que deveriam ter devolvido documentos relevantes, em vez disso, não produziram resultados ou apresentaram conteúdos irrelevantes.

Este contratempo foi frustrante, mas também sublinhou uma lição fundamental: o método de armazenamento é tão importante como a estratégia de recuperação. Comecei a considerar outras opções, como a utilização do MongoDB Atlas para pesquisas vectoriais, que poderia potencialmente fornecer a precisão e a escalabilidade de que precisava. No entanto, antes de me comprometer com esta alternativa, queria explorar outras abordagens para determinar se haveria uma solução mais eficaz.

Recuperador de metadados e armazenamento de vectores: Procura a especificidade

Uma das próximas vias que explorei foi a utilização de um recuperador de metadados combinado com um armazenamento de vectores. A ideia subjacente a esta abordagem era categorizar o vasto conjunto de informações no Fabrice AI e depois obter respostas com base nessas categorias. Ao estruturar os dados com metadados, esperava melhorar a capacidade da IA de fornecer respostas específicas e direcionadas.

No entanto, este método também tinha as suas limitações. Embora parecesse promissor à primeira vista, a IA teve dificuldade em dar respostas exactas a todos os tipos de perguntas. Por exemplo, quando perguntei: “O autor é otimista?” O sistema não conseguiu interpretar a pergunta no contexto do conteúdo relevante. Em vez de fornecer uma análise perspicaz com base nos metadados, devolveu respostas vagas ou nenhuma.

Esta abordagem ensinou-me uma lição valiosa sobre a importância do contexto na IA. Não basta simplesmente categorizar a informação; a IA também tem de compreender como estas categorias interagem e se sobrepõem para formar uma compreensão coesa do conteúdo. Sem esta profundidade de compreensão, mesmo os métodos de recuperação mais sofisticados podem ser insuficientes.

Estruturação do conhecimento: O SummaryTreeIndex

Enquanto continuava a aperfeiçoar a IA Fabrice, experimentei criar um SummaryTreeIndex. Esta abordagem tinha como objetivo resumir todos os documentos num formato de árvore, permitindo que a IA navegasse através destes resumos e recuperasse informações relevantes com base na estrutura do conteúdo.

A ideia era que, ao resumir os documentos, a IA poderia identificar rapidamente os pontos-chave e responder às perguntas com informações concisas e precisas. No entanto, este método também enfrentou desafios significativos. A IA teve dificuldade em dar respostas significativas a questões complexas, como “Como tomar decisões importantes na vida?” Em vez de se basear no conteúdo rico e cheio de nuances armazenado nos resumos, as respostas da IA eram frequentemente superficiais ou incompletas.

Esta experiência sublinhou a dificuldade de equilibrar a amplitude e a profundidade na IA. Embora os resumos possam fornecer uma visão geral de alto nível, muitas vezes não têm o contexto detalhado necessário para responder a perguntas mais complexas. Apercebi-me de que qualquer solução eficaz teria de integrar tanto o conteúdo detalhado como os resumos de alto nível, permitindo que a IA recorresse a ambos quando necessário.

É por isso que, na versão atual do Fabrice AI, a IA começa por dar um resumo da resposta, antes de entrar em mais pormenores.

Expandir os horizontes: Índice do gráfico de conhecimentos

Reconhecendo as limitações dos métodos anteriores, optei por uma abordagem mais sofisticada: o Knowledge Graph Index. Esta abordagem envolveu a construção de um gráfico de conhecimentos a partir de texto não estruturado, permitindo que a IA se envolvesse em consultas baseadas em entidades. O objetivo era criar uma compreensão mais dinâmica e interligada do conteúdo, permitindo que a IA Fabrice respondesse mais eficazmente a perguntas complexas e contextualizadas.

Apesar da sua promessa, o Índice do Gráfico de Conhecimento também enfrentou obstáculos significativos. A IA teve dificuldade em produzir resultados precisos, especialmente para consultas que exigiam uma compreensão profunda do contexto. Por exemplo, quando lhe foi perguntado: “Quais são as avaliações justas da Seed & Series A?”, a IA não conseguiu dar uma resposta relevante, destacando a dificuldade de integrar texto não estruturado num gráfico de conhecimento coerente.

Esta abordagem, embora não tenha sido bem sucedida, forneceu informações importantes sobre os desafios da utilização de gráficos de conhecimentos na IA. A complexidade dos dados e a necessidade de um contexto preciso significavam que mesmo um gráfico de conhecimentos bem construído poderia ter dificuldades em obter os resultados desejados. Uma outra desvantagem do índice do gráfico do conhecimento era a sua baixa velocidade. O tempo de resposta para obter documentos relacionados era muito elevado em relação a um índice de armazenamento de vectores.

Reavaliando os dados: Gémeos

Depois de vários contratempos, decidi adotar uma abordagem diferente, utilizando a IA da Google, Gemini. A ideia era criar conjuntos de dados a partir de ficheiros JSON-CSV e depois treinar um modelo LLM personalizado utilizando esses dados. Esperava que, utilizando dados estruturados e um modelo de treino robusto, pudesse ultrapassar alguns dos desafios que tinham afetado as tentativas anteriores.

No entanto, esta abordagem também encontrou dificuldades. O processo de formação foi interrompido devido a uma formatação incorrecta dos dados, o que impediu a formação eficaz do modelo. Este contratempo sublinhou a importância da integridade dos dados na formação em IA. Sem dados corretamente formatados e estruturados, mesmo os modelos mais avançados podem não ter o desempenho esperado.

Esta experiência levou-me a considerar o potencial da utilização do BigQuery para armazenar dados JSON, proporcionando uma plataforma mais escalável e fiável para gerir os grandes conjuntos de dados necessários para treinar eficazmente a IA Fabrice.

Combinando pontos fortes: Documentos Langchain com Pinecone

Apesar dos desafios enfrentados até agora, estava determinado a encontrar uma solução que permitisse à Fabrice AI armazenar e recuperar conhecimentos de forma eficaz. Esta determinação levou-me a fazer experiências com documentos Langchain e Pinecone. A abordagem envolveu a criação de um armazenamento vetorial Pinecone utilizando documentos Langchain e embeddings OpenAI, recuperando depois os principais documentos semelhantes com base na consulta.

Este método revelou-se prometedor, especialmente quando a consulta incluía o título do documento. Por exemplo, quando lhe foi perguntado “Qual é a chave para a felicidade?”, a IA foi capaz de recuperar e resumir o conteúdo relevante com exatidão. No entanto, ainda existiam limitações, especialmente quando a consulta não incluía palavras-chave ou títulos específicos.

Esta abordagem demonstrou o potencial da combinação de diferentes tecnologias para melhorar o desempenho da IA. Ao integrar os documentos Langchain com o armazenamento de vectores do Pinecone, consegui melhorar a relevância e a precisão das respostas da IA, embora com algumas limitações.

Alcança a consistência: Construtor GPT OpenAI

Depois de explorar vários métodos e tecnologias, recorri ao GPT Builder da Open AI para consolidar e aperfeiçoar os conhecimentos armazenados no Fabrice AI. Ao carregar todo o conteúdo para uma base de conhecimentos GPT, pretendi criar uma plataforma mais consistente e fiável para recuperar e interagir com os meus conhecimentos.

Esta abordagem provou ser uma das mais bem sucedidas, com a IA a conseguir fornecer melhores resultados numa série de consultas. A chave para este sucesso foi a integração de todo o conhecimento num sistema único e coeso, permitindo que a IA utilizasse toda a amplitude do conteúdo ao responder às perguntas.

Como mencionei no meu post anterior, não consegui que funcionasse no meu site e só estava disponível para os subscritores pagos do Chat GPT, o que achei demasiado limitativo. Além disso, embora fosse melhor, eu ainda não gostava da qualidade das respostas e não me sentia confortável em divulgá-las ao público.

Refinamento final: Assistentes de GPT usando o modelo 4o

A última peça do puzzle no desenvolvimento da IA Fabrice surgiu com a introdução dos assistentes GPT utilizando o modelo 4o. Esta abordagem representou o culminar de tudo o que tinha aprendido ao longo do projeto. Utilizando uma base de dados de vectores e refinando as instruções, pretendi atingir o nível mais elevado possível de precisão e compreensão contextual nas respostas da IA.

Este método envolveu o carregamento de todo o conhecimento que eu tinha acumulado numa base de dados vetorial, que foi depois utilizada como base para as interações da IA. A base de dados vetorial permitiu à IA efetuar pesquisas mais sofisticadas, recuperando informações com base no significado semântico das consultas, em vez de se basear apenas na correspondência de palavras-chave. Isto representou um avanço significativo em relação às abordagens anteriores, permitindo que a IA compreendesse melhor e respondesse a questões complexas e matizadas.

Uma das principais inovações desta abordagem foi o refinamento cuidadoso dos prompts. Ao elaborar e testar meticulosamente diferentes prompts, consegui orientar a IA no sentido de fornecer respostas mais precisas e relevantes. Isto envolveu não só ajustar a redação dos avisos, mas também experimentar diferentes formas de estruturar as perguntas para obter as melhores respostas possíveis.

Os resultados foram impressionantes. A IA era agora capaz de lidar com uma vasta gama de consultas com elevada precisão, mesmo quando as perguntas eram abertas ou exigiam uma compreensão profunda do contexto. Por exemplo, quando lhe perguntaram: “Como tomar as decisões mais importantes da tua vida?” A IA forneceu uma resposta abrangente e perspicaz, recorrendo a uma variedade de fontes e perspectivas para dar uma resposta completa.

Este sucesso foi o culminar de centenas de horas de trabalho e de inúmeras experiências. Demonstrou que, com a combinação certa de tecnologia e refinamento, era possível criar uma IA que pudesse não só armazenar e recuperar informações de forma eficaz, mas também interagir com elas de forma significativa. O desenvolvimento dos GPT Assistants utilizando o Model 4o marcou o ponto em que a IA Fabrice se tornou verdadeiramente própria, atingindo o nível de sofisticação e precisão que eu tinha imaginado desde o início. A API dos GPT Assistants foi então integrada no meu blogue para permitir que os utilizadores finais interagissem com a Fabrice AI da forma como a vês agora no blogue.

Refletir sobre a viagem

O processo de desenvolvimento da IA do Fabrice realçou as complexidades do trabalho com a IA, particularmente no que diz respeito à compreensão e contextualização da informação. Ensinou-me que não há atalhos no desenvolvimento da IA – cada passo, cada iteração e cada experiência é uma parte necessária da viagem para criar algo verdadeiramente eficaz.

Olhando para o futuro, estou entusiasmado por continuar a aperfeiçoar e a expandir a IA da Fabrice. Como mencionei no último post, vou rever as perguntas feitas para completar a base de conhecimentos onde existem lacunas. Também espero eventualmente lançar uma versão interactiva que se pareça comigo e com a qual possas falar.

Autor Rose BrownPublicado em Setembro 4, 2024Setembro 5, 2024Categorias Reflexões pessoais, Gadgets tecnológicosDeixe um comentário sobre Fabrice AI: O percurso técnico

Search

Recent Posts

  • O sentido da vida
  • Atualização da FJ Labs Q2 2025
  • Conversa sobre o mundo da DaaS com Auren Hoffman: carteiras diversificadas, vendas secundárias e jantares
  • Episódio 50: Tendências do mercado de risco
  • Descodifica o futuro: IA, Venture Market & Marketplaces

Recent Comments

    Archives

    • Julho 2025
    • Junho 2025
    • Maio 2025
    • Abril 2025
    • Março 2025
    • Fevereiro 2025
    • Janeiro 2025
    • Dezembro 2024
    • Novembro 2024
    • Outubro 2024
    • Setembro 2024
    • Agosto 2024
    • Julho 2024
    • Junho 2024
    • Maio 2024
    • Abril 2024
    • Março 2024
    • Fevereiro 2024
    • Janeiro 2024
    • Dezembro 2023
    • Novembro 2023
    • Outubro 2023
    • Setembro 2023
    • Agosto 2023
    • Junho 2023
    • Maio 2023
    • Abril 2023
    • Março 2023
    • Fevereiro 2023
    • Janeiro 2023
    • Dezembro 2022
    • Novembro 2022
    • Outubro 2022
    • Setembro 2022
    • Agosto 2022
    • Junho 2022
    • Maio 2022
    • Abril 2022
    • Março 2022
    • Fevereiro 2022
    • Janeiro 2022
    • Novembro 2021
    • Outubro 2021
    • Setembro 2021
    • Agosto 2021
    • Julho 2021
    • Junho 2021
    • Abril 2021
    • Março 2021
    • Fevereiro 2021
    • Janeiro 2021
    • Dezembro 2020
    • Novembro 2020
    • Outubro 2020
    • Setembro 2020
    • Agosto 2020
    • Julho 2020
    • Junho 2020
    • Maio 2020
    • Abril 2020
    • Março 2020
    • Fevereiro 2020
    • Janeiro 2020
    • Novembro 2019
    • Outubro 2019
    • Setembro 2019
    • Agosto 2019
    • Julho 2019
    • Junho 2019
    • Abril 2019
    • Março 2019
    • Fevereiro 2019
    • Janeiro 2019
    • Dezembro 2018
    • Novembro 2018
    • Outubro 2018
    • Agosto 2018
    • Junho 2018
    • Maio 2018
    • Março 2018
    • Fevereiro 2018
    • Janeiro 2018
    • Dezembro 2017
    • Novembro 2017
    • Outubro 2017
    • Setembro 2017
    • Agosto 2017
    • Julho 2017
    • Junho 2017
    • Maio 2017
    • Abril 2017
    • Março 2017
    • Fevereiro 2017
    • Janeiro 2017
    • Dezembro 2016
    • Novembro 2016
    • Outubro 2016
    • Setembro 2016
    • Agosto 2016
    • Julho 2016
    • Junho 2016
    • Maio 2016
    • Abril 2016
    • Março 2016
    • Fevereiro 2016
    • Janeiro 2016
    • Dezembro 2015
    • Novembro 2015
    • Setembro 2015
    • Agosto 2015
    • Julho 2015
    • Junho 2015
    • Maio 2015
    • Abril 2015
    • Março 2015
    • Fevereiro 2015
    • Janeiro 2015
    • Dezembro 2014
    • Novembro 2014
    • Outubro 2014
    • Setembro 2014
    • Agosto 2014
    • Julho 2014
    • Junho 2014
    • Maio 2014
    • Abril 2014
    • Fevereiro 2014
    • Janeiro 2014
    • Dezembro 2013
    • Novembro 2013
    • Outubro 2013
    • Setembro 2013
    • Agosto 2013
    • Julho 2013
    • Junho 2013
    • Maio 2013
    • Abril 2013
    • Março 2013
    • Fevereiro 2013
    • Janeiro 2013
    • Dezembro 2012
    • Novembro 2012
    • Outubro 2012
    • Setembro 2012
    • Agosto 2012
    • Julho 2012
    • Junho 2012
    • Maio 2012
    • Abril 2012
    • Março 2012
    • Fevereiro 2012
    • Janeiro 2012
    • Dezembro 2011
    • Novembro 2011
    • Outubro 2011
    • Setembro 2011
    • Agosto 2011
    • Julho 2011
    • Junho 2011
    • Maio 2011
    • Abril 2011
    • Março 2011
    • Fevereiro 2011
    • Janeiro 2011
    • Dezembro 2010
    • Novembro 2010
    • Outubro 2010
    • Setembro 2010
    • Agosto 2010
    • Julho 2010
    • Junho 2010
    • Maio 2010
    • Abril 2010
    • Março 2010
    • Fevereiro 2010
    • Janeiro 2010
    • Dezembro 2009
    • Novembro 2009
    • Outubro 2009
    • Setembro 2009
    • Agosto 2009
    • Julho 2009
    • Junho 2009
    • Maio 2009
    • Abril 2009
    • Março 2009
    • Fevereiro 2009
    • Janeiro 2009
    • Dezembro 2008
    • Novembro 2008
    • Outubro 2008
    • Setembro 2008
    • Agosto 2008
    • Julho 2008
    • Junho 2008
    • Maio 2008
    • Abril 2008
    • Março 2008
    • Fevereiro 2008
    • Janeiro 2008
    • Dezembro 2007
    • Novembro 2007
    • Outubro 2007
    • Setembro 2007
    • Agosto 2007
    • Julho 2007
    • Junho 2007
    • Maio 2007
    • Abril 2007
    • Março 2007
    • Fevereiro 2007
    • Janeiro 2007
    • Dezembro 2006
    • Novembro 2006
    • Outubro 2006
    • Setembro 2006
    • Agosto 2006
    • Julho 2006
    • Junho 2006
    • Maio 2006
    • Abril 2006
    • Março 2006
    • Fevereiro 2006
    • Janeiro 2006
    • Dezembro 2005
    • Novembro 2005

    Categories

    • Empreendedorismo
    • Filmes e programas de TV
    • Entrevistas e conversas à beira do fogo
    • Viaja
    • Livros
    • Felicidade
    • Jogos de vídeo
    • A economia
    • Criptografia/Web3
    • Mercados
    • Discursos
    • Gadgets tecnológicos
    • Brincar com unicórnios
    • Laboratórios FJ
    • Nova Iorque
    • Artigos em destaque
    • Peças de teatro
    • Ano em análise
    • Reflexões pessoais
    • Pensamentos empresariais
    • OLX
    • Ano em análise
    • Otimização da vida
    • Laboratórios FJ
    • Tomada de decisões
    • A economia
    • Luz de activos vivos
    • Reflexões
    • Otimismo e Felicidade
    • Cães

    Meta

    • Iniciar sessão
    • Feed de entradas
    • Feed de comentários
    • WordPress.org
    • Home
    • Playing with Unicorns
    • Featured
    • Categories
    • Portfolio
    • About Me
    • Newsletter
    • Privacy Policy
    × Image Description

    Subscribe to Fabrice's Newsletter

    Tech Entrepreneurship, Economics, Life Philosophy and much more!

    Check your inbox or spam folder to confirm your subscription.

    >
    This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.