Fabrice Grinda

  • Playing with
    Unicorns
  • Featured
  • Categories
  • Portfolio
  • About Me
  • Newsletter
  • AI
    • Pitch me your startup!
    • Fabrice AI
  • DA
    • EN
    • FR
    • AR
    • BN
    • DE
    • ES
    • FA
    • HI
    • ID
    • IT
    • JA
    • KO
    • NL
    • PL
    • PT-BR
    • PT-PT
    • RO
    • RU
    • TH
    • UK
    • UR
    • VI
    • ZH-HANS
    • ZH-HANT
× Image Description

Subscribe to Fabrice's Newsletter

Tech Entrepreneurship, Economics, Life Philosophy and much more!

Check your inbox or spam folder to confirm your subscription.

Menu

  • DA
    • EN
    • FR
    • AR
    • BN
    • DE
    • ES
    • FA
    • HI
    • ID
    • IT
    • JA
    • KO
    • NL
    • PL
    • PT-BR
    • PT-PT
    • RO
    • RU
    • TH
    • UK
    • UR
    • VI
    • ZH-HANS
    • ZH-HANT
  • Home
  • Playing with Unicorns
  • Featured
  • Caegories
  • Portfolio
  • About Me
  • Newsletter
  • Privacy Policy
Videre til indhold
Fabrice Grinda

Internet entrepreneurs and investors

× Image Description

Subscribe to Fabrice's Newsletter

Tech Entrepreneurship, Economics, Life Philosophy and much more!

Check your inbox or spam folder to confirm your subscription.

Fabrice Grinda

Internet entrepreneurs and investors

Måned: september 2024

Fabrice AI: Nuværende teknisk implementering

Fabrice AI: Nuværende teknisk implementering

I det sidste indlæg, Fabrice AI: The Technical Journey, forklarede jeg den rejse, vi gik igennem for at bygge Fabrice AI, og som var en fuld cirkel. Jeg startede med at bruge Chat GPT 3 og 3.5. Skuffet over resultaterne forsøgte jeg at bruge Langchain Framework til at bygge min egen AI-model oven på den, før jeg vendte tilbage til Chat GPT, da de begyndte at bruge vektordatabaser og massivt forbedrede resultaterne med 4o.

Her er den nuværende proces for træning af Fabrice AI:

  • Træningsdataene (blogindlæg, Youtube-URL’er, podcast-URL’er, PDF-URL’er og billed-URL’er) er gemt i vores WordPress-database.
  • Vi udtrækker data og strukturerer dem.
  • Vi leverer de strukturerede data til Open AI til træning ved hjælp af Assistants API.
  • Open AI opretter derefter en vektorlager-database og gemmer den.

Her er et eksempel på et stykke struktureret data. Hvert stykke indhold har sin egen JSON-fil. Vi sørger for ikke at overskride grænsen på 32.000 tokens.

{

“id”: “1”,

“dato”: ” “,

“link”:”https://fabricegrinda.com/”,

“title”: {

“gengivet”: “Hvad er Fabrice AI?”

  },

“Kategori”: “Om Fabrice”,

“featured_media”: “https://fabricegrinda.com/wp-content/uploads/2023/12/About-me.png”,

“andre_medier”: “”,

“viden_type”: “blog”,

“contentUpdated”: “Fabrice AI er en digital repræsentation af Fabrices tanker baseret på hans blogindlæg og udvalgte transskriberede podcasts og interviews ved hjælp af ChatGPT. I betragtning af at mange af transskriptionerne er ufuldstændigt transskriberede, og at bloggen kun er en begrænset repræsentation af Fabrice som person, undskylder vi unøjagtigheder og manglende oplysninger. Ikke desto mindre er dette et godt udgangspunkt for at få Fabrices tanker om mange emner.”

}

Det er den nuværende tekniske implementering:

  • Den forbrugerrettede hjemmeside er hostet på AWS Amplify.
  • Integrationen mellem det offentlige websted og Open AI sker via et API-lag, som hostes på AWS som en Python API-server.
  • Vi bruger MongoDB som log til at gemme alle de spørgsmål, som offentligheden har stillet, de svar, som Chat GPT har givet, og kildernes URL’er.
  • Vi bruger forskellige scripts til at strukturere data fra bloggen, YouTube osv. og sende dem til Open AI til træning.
  • Vi bruger React-Speech Recognition til at konvertere stemmeforespørgsler til tekst.
  • Vi bruger også Google Analytics til at spore trafikken på hjemmesiden.

Det er vigtigt at bemærke, at vi bruger to assistenter:

  • En til at svare på spørgsmål.
  • En til at hente metadata-URL’er, de blog-URL’er, der har det originale indhold, så kilderne kan vises nederst i svarene.

Hvad bliver det næste?

  1. Forbedringer af tale-til-tekst

Open AI’s Whisper-model til tale til tekst er mere præcis end React. Den understøtter også flere sprog fra start, og den er god til at håndtere tale på blandede sprog, accenter og dialekter. Derfor vil jeg højst sandsynligt gå over til den i de kommende måneder. Når det er sagt, er det mere komplekst at sætte op, så det kan tage et stykke tid. Du skal håndtere modellen, styre afhængigheder (f.eks. Python, biblioteker) og sikre, at du har tilstrækkelig hardware til effektiv ydelse. Whisper er heller ikke designet til direkte brug i browsere. Når du bygger en webapp, skal du oprette en backend-tjeneste til at håndtere transskriptionen, hvilket øger kompleksiteten.

  • Fabrice AI Avatar

Jeg vil gerne skabe en Fabrice AI-avatar, der ser ud og lyder som mig, og som man kan føre en samtale med. Jeg vurderede D-iD, men fandt det alt for dyrt til mine formål. Eleven Labs er kun til stemmer. Synthesia er fantastisk, men kan i øjeblikket ikke lave videoer i realtid. I sidste ende besluttede jeg at bruge HeyGen på grund af den mere passende pris og funktionalitet.

Jeg formoder, at Open AI på et tidspunkt vil udgive sin egen løsning, så dette arbejde vil have været forgæves. Det har jeg det fint med, og jeg vil skifte til Open AI-løsningen, når og hvis den kommer. På nuværende tidspunkt er pointen med hele denne øvelse at lære, hvad der er muligt med AI, og hvor meget arbejde det kræver for at hjælpe mig med at forstå området bedre.

  • Brugerdefineret dashboard

Lige nu har jeg brug for at køre en MongoDB-forespørgsel for at få et udtræk af dagens spørgsmål og svar. Jeg er ved at bygge et simpelt dashboard, hvor jeg kan få udtræk og simpel statistik over antallet af forespørgsler pr. sprog, antallet af tale-til-tekst-anmodninger osv.

  • Yderligere datakilder

Vi har lige uploadet FJ Labs-porteføljen til Fabrice AI. Du kan nu spørge, om en virksomhed er en del af porteføljen. Fabrice AI svarer med en kort beskrivelse af virksomheden og et link til dens hjemmeside.

I betragtning af antallet af personlige spørgsmål, som Fabrice AI fik, og som den ikke havde svar på, tog jeg mig tid til manuelt at tagge hver taler i min 50-års fødselsdagsvideo for at give den det indhold, den havde brug for.

Konklusion

Med alt det arbejde, jeg har udført i løbet af de sidste tolv måneder om alt, hvad der har med AI at gøre, synes der at være en klar universel konklusion: Jo mere du venter, jo billigere, nemmere og bedre bliver det, og jo mere sandsynligt er det, at Open AI vil tilbyde det! I mellemtiden må du endelig sige til, hvis du har spørgsmål.

Forfatter Rose BrownUdgivet september 30, 2024oktober 1, 2024Kategorier Tekniske gadgets, Personlige overvejelserSkriv kommentar til Fabrice AI: Nuværende teknisk implementering

Fabrice AI: Den tekniske rejse

Fabrice AI: Den tekniske rejse

Som jeg nævnte i det forrige indlæg, viste det sig at være langt mere komplekst end forventet at udvikle Fabrice AI, hvilket tvang mig til at udforske mange forskellige tilgange.

Den indledende tilgang: Llama-indeks – Vektorsøgning

Mit første forsøg på at forbedre Fabrice AI’s genfindingsevner involverede brugen af Llama-indekset til vektorsøgning. Konceptet var enkelt: at tage indholdet fra min blog, konvertere det til Langchain-dokumenter og derefter omdanne dem til Llama-dokumenter. Disse Llama-dokumenter ville derefter blive gemt i et vektorindeks, så jeg kunne søge efter relevante oplysninger i dette indeks.

Men da jeg begyndte at teste systemet, blev det tydeligt, at denne tilgang ikke gav de resultater, jeg havde håbet på. Når jeg stillede systemet konteksttunge spørgsmål som “Hvad er de største fejl, som iværksættere begår på markedet?”, kunne den kunstige intelligens ikke give meningsfulde svar. I stedet for at hente det nuancerede indhold, som jeg vidste var indlejret i dataene, returnerede den irrelevante eller ufuldstændige svar.

Denne første fiasko fik mig til at genoverveje min tilgang. Jeg indså, at det ikke var nok bare at gemme indhold i et vektorindeks; genfindingsmekanismen skulle forstå konteksten og nuancerne i de spørgsmål, der blev stillet. Denne erkendelse var den første af mange erfaringer, der kom til at forme udviklingen af Fabrice AI.

Opbevaring af viden: MongoDB dokumentlagring og -hentning

Med begrænsningerne i Llama Index-tilgangen i baghovedet undersøgte jeg derefter muligheden for at gemme Llama-dokumenterne i MongoDB. MongoDB’s fleksible skema og dokumentorienterede struktur virkede som en lovende løsning til at håndtere de forskellige typer indhold, jeg havde samlet i årenes løb.

Planen var at skabe en mere dynamisk og responsiv søgeoplevelse. Men denne tilgang løb hurtigt ind i problemer. Søgefunktionen, som jeg havde forventet ville være mere robust, fungerede ikke som forventet. Forespørgsler, der skulle have givet relevante dokumenter, gav i stedet ingen resultater eller irrelevant indhold.

Dette tilbageslag var frustrerende, men det understregede også en vigtig lektie: Opbevaringsmetoden er lige så vigtig som søgestrategien. Jeg begyndte at overveje andre muligheder, f.eks. at bruge MongoDB Atlas til vektorsøgninger, som potentielt kunne give den præcision og skalerbarhed, jeg havde brug for. Men før jeg besluttede mig for dette alternativ, ville jeg udforske andre tilgange for at finde ud af, om der måske var en mere effektiv løsning.

Metadata Retriever og Vector Store: På jagt efter specificitet

En af de næste muligheder, jeg udforskede, var brugen af en metadatahenter kombineret med et vektorlager. Ideen bag denne tilgang var at kategorisere den store mængde information i Fabrice AI og derefter hente svar baseret på disse kategorier. Ved at strukturere dataene med metadata håbede jeg at kunne forbedre AI’ens evne til at give specifikke, målrettede svar.

Men denne metode havde også sine begrænsninger. Selv om den virkede lovende på overfladen, kæmpede AI’en med at levere præcise svar på alle typer forespørgsler. For eksempel da jeg spurgte: “Er forfatteren optimistisk?” Systemet kunne ikke fortolke spørgsmålet i sammenhæng med det relevante indhold. I stedet for at give en indsigtsfuld analyse baseret på metadataene, returnerede det enten vage svar eller ingen.

Denne tilgang lærte mig en værdifuld lektie om betydningen af kontekst i AI. Det er ikke nok blot at kategorisere information; den kunstige intelligens skal også forstå, hvordan disse kategorier interagerer og overlapper hinanden for at skabe en sammenhængende forståelse af indholdet. Uden denne dybe forståelse kan selv de mest sofistikerede genfindingsmetoder komme til kort.

Strukturering af viden: Indekset SummaryTreeIndex

Da jeg fortsatte med at forfine Fabrice AI, eksperimenterede jeg med at skabe et SummaryTreeIndex. Denne tilgang havde til formål at opsummere alle dokumenterne i et træformat, så den kunstige intelligens kunne navigere gennem disse opsummeringer og hente relevante oplysninger baseret på indholdets struktur.

Tanken var, at AI’en ved at opsummere dokumenterne hurtigt kunne identificere nøglepunkter og svare på forespørgsler med kortfattet, præcis information. Men denne metode stod også over for betydelige udfordringer. AI’en kæmpede med at give meningsfulde svar på komplekse forespørgsler, såsom “Hvordan træffer man vigtige beslutninger i livet?” I stedet for at trække på det rige, nuancerede indhold, der var gemt i resuméerne, var AI’ens svar ofte overfladiske eller ufuldstændige.

Denne erfaring understregede, hvor svært det er at finde en balance mellem bredde og dybde i AI. Mens resuméer kan give et overblik på højt niveau, mangler de ofte den detaljerede kontekst, der er nødvendig for at besvare mere komplekse spørgsmål. Jeg indså, at enhver effektiv løsning ville være nødt til at integrere både detaljeret indhold og resuméer på højt niveau, så AI’en kunne trække på begge dele efter behov.

Det er derfor, jeg i den version af Fabrice AI, der er live i øjeblikket, lader AI’en først give et resumé af svaret, før den går i detaljer.

Udvidelse af horisonten: Vidensgraf-indeks

I erkendelse af de tidligere metoders begrænsninger vendte jeg mig mod en mere sofistikeret tilgang: Knowledge Graph Index. Denne tilgang involverede konstruktion af en vidensgraf ud fra ustruktureret tekst, hvilket gjorde det muligt for AI’en at foretage entitetsbaserede forespørgsler. Målet var at skabe en mere dynamisk og sammenkoblet forståelse af indholdet, så Fabrice AI kunne besvare komplekse, konteksttunge spørgsmål mere effektivt.

På trods af sit løfte stod Knowledge Graph Index også over for betydelige forhindringer. AI’en kæmpede med at producere nøjagtige resultater, især for forespørgsler, der krævede en dyb forståelse af konteksten. For eksempel kunne AI’en ikke give et relevant svar på spørgsmålet “Hvad er fair Seed & Series A valuations?”, hvilket understreger, hvor svært det er at integrere ustruktureret tekst i en sammenhængende vidensgraf.

Selv om denne tilgang i sidste ende ikke lykkedes, gav den vigtig indsigt i udfordringerne ved at bruge vidensgrafer i AI. Datakompleksiteten og behovet for præcis kontekst betød, at selv en velkonstrueret vidensgraf kunne have svært ved at levere de ønskede resultater. Endnu en ulempe ved Knowledge Graph Index var dens langsomme hastighed. Svartiden for at finde relaterede dokumenter var meget høj i forhold til et vector store-indeks.

Revurdering af data: Gemini

Efter flere tilbageslag besluttede jeg at tage en anden tilgang ved at udnytte Googles AI, Gemini. Ideen var at oprette datasæt fra JSON-CSV-filer og derefter træne en brugerdefineret model LLM ved hjælp af disse data. Jeg håbede, at jeg ved at bruge strukturerede data og en robust træningsmodel kunne overvinde nogle af de udfordringer, der havde plaget tidligere forsøg.

Denne tilgang stødte dog også på problemer. Træningsprocessen blev stoppet på grund af forkert dataformatering, som forhindrede modellen i at blive trænet effektivt. Dette tilbageslag understregede vigtigheden af dataintegritet i AI-træning. Uden korrekt formaterede og strukturerede data kan selv de mest avancerede modeller ikke fungere som forventet.

Denne erfaring fik mig til at overveje potentialet i at bruge BigQuery til at lagre JSON-data, hvilket giver en mere skalerbar og pålidelig platform til at håndtere de store datasæt, der er nødvendige for at træne Fabrice AI effektivt.

Kombination af styrker: Langchain-dokumenter med Pinecone

På trods af de hidtidige udfordringer var jeg fast besluttet på at finde en løsning, der ville gøre det muligt for Fabrice AI at lagre og hente viden effektivt. Denne beslutsomhed fik mig til at eksperimentere med Langchain-dokumenter og Pinecone. Metoden gik ud på at oprette et Pinecone-vektorlager ved hjælp af Langchain-dokumenter og OpenAI-indlejringer og derefter hente de mest lignende dokumenter baseret på forespørgslen.

Denne metode viste sig at være lovende, især når forespørgslen omfattede dokumentets titel. For eksempel var AI’en i stand til at hente og opsummere det relevante indhold præcist, når den blev spurgt: “Hvad er nøglen til lykke?”. Der var dog stadig begrænsninger, især når forespørgslen manglede specifikke nøgleord eller titler.

Denne tilgang demonstrerede potentialet i at kombinere forskellige teknologier for at forbedre AI’ens ydeevne. Ved at integrere Langchain-dokumenter med Pinecones vektorlager var jeg i stand til at forbedre relevansen og nøjagtigheden af AI’ens svar, omend med visse begrænsninger.

Opnåelse af konsistens: GPT-byggeren OpenAI

Efter at have udforsket forskellige metoder og teknologier vendte jeg mig mod Open AI’s GPT Builder for at konsolidere og forfine den viden, der var lagret i Fabrice AI. Ved at uploade alt indholdet til en GPT-videnbase ville jeg skabe en mere konsekvent og pålidelig platform til at hente og interagere med min viden.

Denne tilgang viste sig at være en af de mest succesfulde, idet den kunstige intelligens var i stand til at give bedre resultater på tværs af en række forespørgsler. Nøglen til denne succes var integrationen af al viden i et enkelt, sammenhængende system, så den kunstige intelligens kunne trække på hele bredden af indhold, når den besvarede spørgsmål.

Som jeg nævnte i mit tidligere indlæg, kunne jeg ikke få det til at køre på min hjemmeside, og det var kun tilgængeligt for betalende abonnenter på Chat GPT, hvilket jeg følte var for begrænsende. Og selv om det var bedre, var jeg stadig ikke vild med kvaliteten af svarene, og jeg var ikke tryg ved at offentliggøre det.

Endelig forbedring: GPT-assistenter bruger model 4o

Den sidste brik i puslespillet i udviklingen af Fabrice AI kom med introduktionen af GPT-assistenter ved hjælp af Model 4o. Denne tilgang repræsenterede kulminationen på alt, hvad jeg havde lært gennem hele projektet. Ved at bruge en vektordatabase og finpudse spørgsmålene forsøgte jeg at opnå det højest mulige niveau af nøjagtighed og kontekstuel forståelse i AI’ens svar.

Metoden gik ud på at uploade al den viden, jeg havde samlet, til en vektordatabase, som derefter blev brugt som grundlag for AI’ens interaktioner. Vektordatabasen gjorde det muligt for den kunstige intelligens at udføre mere sofistikerede søgninger og hente oplysninger baseret på den semantiske betydning af forespørgsler i stedet for udelukkende at basere sig på søgeordsmatchning. Dette markerede et betydeligt fremskridt i forhold til tidligere tilgange og gjorde AI’en i stand til bedre at forstå og svare på komplekse, nuancerede spørgsmål.

En af de vigtigste nyskabelser i denne tilgang var den omhyggelige forbedring af spørgsmålene. Ved omhyggeligt at udforme og teste forskellige forespørgsler kunne jeg guide den kunstige intelligens til at give mere præcise og relevante svar. Det indebar ikke kun at tilpasse ordlyden af spørgsmålene, men også at eksperimentere med forskellige måder at strukturere forespørgslerne på for at få de bedst mulige svar.

Resultaterne var imponerende. AI’en var nu i stand til at håndtere en lang række forespørgsler med stor nøjagtighed, selv når spørgsmålene var åbne eller krævede en dyb forståelse af konteksten. For eksempel da den blev spurgt: “Hvordan træffer man de vigtigste beslutninger i sit liv?” gav AI’en et omfattende og indsigtsfuldt svar, der trak på en række forskellige kilder og perspektiver for at levere et velafrundet svar.

Denne succes var kulminationen på hundredvis af timers arbejde og utallige eksperimenter. Den viste, at det med den rette kombination af teknologi og raffinement var muligt at skabe en AI, der ikke bare kunne lagre og hente information effektivt, men også engagere sig i den på en meningsfuld måde. Udviklingen af GPT Assistants ved hjælp af Model 4o markerede det punkt, hvor Fabrice AI virkelig kom til sin ret og opnåede det niveau af raffinement og nøjagtighed, som jeg havde forestillet mig fra starten. GPT Assistants API blev derefter integreret i min blog for at give slutbrugerne mulighed for at interagere med Fabrice AI på den måde, du ser det på bloggen lige nu.

Reflekterer over rejsen

Processen med at udvikle Fabrice AI viste, hvor komplekst det er at arbejde med AI, især når det drejer sig om at forstå og sætte information ind i en sammenhæng. Det lærte mig, at der ikke er nogen genveje i AI-udvikling – hvert trin, hver iteration og hvert eksperiment er en nødvendig del af rejsen mod at skabe noget virkelig effektivt.

Fremover glæder jeg mig til at fortsætte med at forfine og udvide Fabrice AI. Som nævnt i det sidste indlæg vil jeg gennemgå de stillede spørgsmål for at supplere vidensbasen, hvor der er huller. Jeg håber også, at jeg på et tidspunkt kan udgive en interaktiv version, der ligner og lyder som mig, og som man kan tale med.

Forfatter Rose BrownUdgivet september 4, 2024september 5, 2024Kategorier Personlige overvejelser, Tekniske gadgetsSkriv kommentar til Fabrice AI: Den tekniske rejse

Search

Recent Posts

  • Meningen med livet
  • FJ Labs’ opdatering for 2. kvartal 2025
  • World of DaaS-samtale med Auren Hoffman: Diversificerede porteføljer, sekundært salg og middagsselskaber
  • Episode 50: Tendenser på venturemarkedet
  • Afkodning af fremtiden: AI, venturemarked og markedspladser

Recent Comments

  • Fabrice til Mon blog est désormais multilingue !
  • Fabrice til Le Sens de la Vie
  • Nabil til Le Sens de la Vie
  • Waiche Marc til Mon blog est désormais multilingue !

Archives

  • juli 2025
  • juni 2025
  • maj 2025
  • april 2025
  • marts 2025
  • februar 2025
  • januar 2025
  • december 2024
  • november 2024
  • oktober 2024
  • september 2024
  • august 2024
  • juli 2024
  • juni 2024
  • maj 2024
  • april 2024
  • marts 2024
  • februar 2024
  • januar 2024
  • december 2023
  • november 2023
  • oktober 2023
  • september 2023
  • august 2023
  • juni 2023
  • maj 2023
  • april 2023
  • marts 2023
  • februar 2023
  • januar 2023
  • december 2022
  • november 2022
  • oktober 2022
  • september 2022
  • august 2022
  • juni 2022
  • maj 2022
  • april 2022
  • marts 2022
  • februar 2022
  • januar 2022
  • november 2021
  • oktober 2021
  • september 2021
  • august 2021
  • juli 2021
  • juni 2021
  • april 2021
  • marts 2021
  • februar 2021
  • januar 2021
  • december 2020
  • november 2020
  • oktober 2020
  • september 2020
  • august 2020
  • juli 2020
  • juni 2020
  • maj 2020
  • april 2020
  • marts 2020
  • februar 2020
  • januar 2020
  • november 2019
  • oktober 2019
  • september 2019
  • august 2019
  • juli 2019
  • juni 2019
  • april 2019
  • marts 2019
  • februar 2019
  • januar 2019
  • december 2018
  • november 2018
  • oktober 2018
  • august 2018
  • juni 2018
  • maj 2018
  • marts 2018
  • februar 2018
  • januar 2018
  • december 2017
  • november 2017
  • oktober 2017
  • september 2017
  • august 2017
  • juli 2017
  • juni 2017
  • maj 2017
  • april 2017
  • marts 2017
  • februar 2017
  • januar 2017
  • december 2016
  • november 2016
  • oktober 2016
  • september 2016
  • august 2016
  • juli 2016
  • juni 2016
  • maj 2016
  • april 2016
  • marts 2016
  • februar 2016
  • januar 2016
  • december 2015
  • november 2015
  • september 2015
  • august 2015
  • juli 2015
  • juni 2015
  • maj 2015
  • april 2015
  • marts 2015
  • februar 2015
  • januar 2015
  • december 2014
  • november 2014
  • oktober 2014
  • september 2014
  • august 2014
  • juli 2014
  • juni 2014
  • maj 2014
  • april 2014
  • februar 2014
  • januar 2014
  • december 2013
  • november 2013
  • oktober 2013
  • september 2013
  • august 2013
  • juli 2013
  • juni 2013
  • maj 2013
  • april 2013
  • marts 2013
  • februar 2013
  • januar 2013
  • december 2012
  • november 2012
  • oktober 2012
  • september 2012
  • august 2012
  • juli 2012
  • juni 2012
  • maj 2012
  • april 2012
  • marts 2012
  • februar 2012
  • januar 2012
  • december 2011
  • november 2011
  • oktober 2011
  • september 2011
  • august 2011
  • juli 2011
  • juni 2011
  • maj 2011
  • april 2011
  • marts 2011
  • februar 2011
  • januar 2011
  • december 2010
  • november 2010
  • oktober 2010
  • september 2010
  • august 2010
  • juli 2010
  • juni 2010
  • maj 2010
  • april 2010
  • marts 2010
  • februar 2010
  • januar 2010
  • december 2009
  • november 2009
  • oktober 2009
  • september 2009
  • august 2009
  • juli 2009
  • juni 2009
  • maj 2009
  • april 2009
  • marts 2009
  • februar 2009
  • januar 2009
  • december 2008
  • november 2008
  • oktober 2008
  • september 2008
  • august 2008
  • juli 2008
  • juni 2008
  • maj 2008
  • april 2008
  • marts 2008
  • februar 2008
  • januar 2008
  • december 2007
  • november 2007
  • oktober 2007
  • september 2007
  • august 2007
  • juli 2007
  • juni 2007
  • maj 2007
  • april 2007
  • marts 2007
  • februar 2007
  • januar 2007
  • december 2006
  • november 2006
  • oktober 2006
  • september 2006
  • august 2006
  • juli 2006
  • juni 2006
  • maj 2006
  • april 2006
  • marts 2006
  • februar 2006
  • januar 2006
  • december 2005
  • november 2005

Categories

  • FJ Labs
  • New York
  • Spil
  • Leger med enhjørninger
  • Taler
  • Udvalgte indlæg
  • Året i tilbageblik
  • OLX
  • Økonomien
  • Film og tv-serier
  • Bøger
  • Personlige overvejelser
  • Videospil
  • Rejser
  • Krypto/Web3
  • Tanker om erhvervslivet
  • Interviews og brandtaler
  • Lykke
  • Markedspladser
  • Iværksætteri
  • Tekniske gadgets
  • Året i tilbageblik
  • Optimering af livet
  • FJ Labs
  • Beslutningstagning
  • Økonomien
  • Asset Light Living
  • Tanker
  • Optimisme og lykke
  • Hunde

Meta

  • Log ind
  • Indlægsfeed
  • Kommentarfeed
  • WordPress.org
Pitch me your startup!
  • Home
  • Playing with Unicorns
  • Featured
  • Caegories
  • Portfolio
  • About Me
  • Newsletter
  • Privacy Policy
× Image Description

Subscribe to Fabrice's Newsletter

Tech Entrepreneurship, Economics, Life Philosophy and much more!

Check your inbox or spam folder to confirm your subscription.

>
This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.