Fabrice Grinda

  • Playing with
    Unicorns
  • Featured
  • Categories
  • Portfolio
  • About Me
  • Newsletter
  • AI
    • Fabrice AI
    • Pitch me your startup!
  • PL
    • EN
    • FR
    • AR
    • BN
    • DA
    • DE
    • ES
    • FA
    • HI
    • ID
    • IT
    • JA
    • KO
    • NL
    • PT-BR
    • PT-PT
    • RO
    • RU
    • TH
    • UK
    • UR
    • VI
    • ZH-HANS
    • ZH-HANT
× Image Description

Subscribe to Fabrice's Newsletter

Tech Entrepreneurship, Economics, Life Philosophy and much more!

Check your inbox or spam folder to confirm your subscription.

Menu

  • PL
    • EN
    • FR
    • AR
    • BN
    • DA
    • DE
    • ES
    • FA
    • HI
    • ID
    • IT
    • JA
    • KO
    • NL
    • PT-BR
    • PT-PT
    • RO
    • RU
    • TH
    • UK
    • UR
    • VI
    • ZH-HANS
    • ZH-HANT
  • Home
  • Playing with Unicorns
  • Featured
  • Categories
  • Portfolio
  • About Me
  • Newsletter
  • Privacy Policy
Przejdź do treści
Fabrice Grinda

Internet entrepreneurs and investors

× Image Description

Subscribe to Fabrice's Newsletter

Tech Entrepreneurship, Economics, Life Philosophy and much more!

Check your inbox or spam folder to confirm your subscription.

Fabrice Grinda

Internet entrepreneurs and investors

Miesiąc: wrzesień 2024

Fabrice AI: Obecna implementacja techniczna

Fabrice AI: Obecna implementacja techniczna

W ostatnim poście Fabrice AI: The Technical Journey wyjaśniłem drogę, jaką przeszliśmy, aby zbudować Fabrice AI, zataczając pełne koło. Zacząłem od korzystania z Chat GPT 3 i 3.5. Rozczarowany wynikami, próbowałem użyć Langchain Framework, aby zbudować na nim własny model sztucznej inteligencji, zanim wróciłem do Chat GPT, gdy zaczęli używać wektorowych baz danych i znacznie poprawili wyniki dzięki 4o.

Oto obecny proces szkolenia Fabrice AI:

  • Dane szkoleniowe (posty na blogu, adresy URL Youtube, adresy URL podcastów, adresy URL plików PDF i adresy URL obrazów) są przechowywane w naszej bazie danych WordPress.
  • Wyodrębniamy dane i nadajemy im strukturę.
  • Dostarczamy ustrukturyzowane dane do Open AI w celu szkolenia za pomocą interfejsu API Assistants.
  • Następnie Open AI tworzy wektorową bazę danych i przechowuje ją.

Oto przykład ustrukturyzowanych danych. Każda zawartość ma swój własny plik JSON. Dbamy o to, aby nie przekroczyć limitu 32 000 tokenów.

{

„id”: „1”,

„data”: ” „,

„link”: „https://fabricegrinda.com/”,

„title”: {

„renderowane”: „Czym jest Fabrice AI?”.

  },

„Kategoria”: „O Fabrice”,

„featured_media”: „https://fabricegrinda.com/wp-content/uploads/2023/12/About-me.png”,

„other_media”: „”,

„knowledge_type”: „blog”,

„contentUpdated”: „Fabrice AI to cyfrowa reprezentacja myśli Fabrice’a oparta na jego wpisach na blogu i wybranych transkrybowanych podcastach i wywiadach przy użyciu ChatGPT.Biorąc pod uwagę, że wiele transkrypcji jest niedoskonale przepisanych i że blog jest tylko ograniczoną reprezentacją Fabrice’a jako osoby, przepraszamy za nieścisłości i brakujące informacje. Niemniej jednak jest to dobry punkt wyjścia do zapoznania się z przemyśleniami Fabrice’a na wiele tematów”.

}

Jest to obecna implementacja techniczna:

  • Strona internetowa skierowana do konsumentów jest hostowana w AWS Amplify.
  • Integracja między witryną publiczną a Open AI odbywa się za pośrednictwem warstwy API, która jest hostowana w AWS jako serwer Python API.
  • Używamy MongoDB jako dziennika do przechowywania wszystkich pytań zadawanych publicznie, odpowiedzi udzielonych przez Chat GPT oraz adresów URL źródeł.
  • Używamy różnych skryptów do strukturyzowania danych z bloga, YouTube itp. w celu przekazania ich do Open AI w celu szkolenia.
  • Używamy React-Speech Recognition do konwersji zapytań głosowych na tekst.
  • Używamy również Google Analytics do śledzenia ruchu w witrynie.

Warto zauważyć, że korzystamy z dwóch asystentów:

  • Jeden do odpowiadania na pytania.
  • Jeden do pobierania adresów URL metadanych, adresów URL blogów, które mają oryginalną zawartość do wyświetlania źródeł na dole odpowiedzi.

Co dalej?

  1. Ulepszenia zamiany mowy na tekst

Model Whisper firmy Open AI do zamiany mowy na tekst jest dokładniejszy niż React. Obsługuje również wiele języków od razu po wyjęciu z pudełka i dobrze radzi sobie z mową w różnych językach, akcentami i dialektami. W rezultacie najprawdopodobniej przejdę na niego w nadchodzących miesiącach. Konfiguracja jest jednak bardziej złożona, więc może to trochę potrwać. Trzeba obsłużyć model, zarządzać zależnościami (np. Python, biblioteki) i upewnić się, że masz wystarczającą ilość sprzętu do wydajnej pracy. Ponadto Whisper nie jest przeznaczony do bezpośredniego użytku w przeglądarkach. Podczas tworzenia aplikacji internetowej należy utworzyć usługę zaplecza do obsługi transkrypcji, co zwiększa złożoność.

  • Awatar Fabrice AI

Chcę stworzyć awatara Fabrice AI, który wygląda i brzmi jak ja, z którym można prowadzić rozmowę. Oceniłem D-iD, ale okazało się, że jest zbyt drogie dla moich celów. Eleven Labs obsługuje tylko głos. Synthesia jest świetna, ale obecnie nie tworzy filmów w czasie rzeczywistym. Ostatecznie zdecydowałem się na HeyGen, biorąc pod uwagę bardziej odpowiednią cenę i funkcjonalność.

Podejrzewam, że w pewnym momencie Open AI wyda własne rozwiązanie, więc ta praca pójdzie na marne. Czuję się z tym komfortowo i przejdę na rozwiązanie Open AI, kiedy i jeśli się pojawi. Na tym etapie celem tego całego ćwiczenia jest nauczenie się, co jest możliwe dzięki sztucznej inteligencji i ile pracy wymaga, aby pomóc mi lepiej zrozumieć tę przestrzeń.

  • Niestandardowy pulpit nawigacyjny

Obecnie muszę uruchomić zapytanie MongoDB, aby uzyskać wyciąg z pytań i odpowiedzi z danego dnia. Buduję prosty pulpit nawigacyjny, w którym mogę uzyskać wyciągi i proste statystyki dotyczące liczby zapytań w poszczególnych językach, liczby żądań zamiany mowy na tekst itp.

  • Dodatkowe źródła danych

Właśnie przesłaliśmy portfolio FJ Labs do Fabrice AI. Możesz teraz zapytać, czy firma jest częścią portfolio. Fabrice AI odpowie krótkim opisem firmy i linkiem do jej strony internetowej.

Biorąc pod uwagę liczbę osobistych pytań, na które Fabrice AI nie znała odpowiedzi, poświęciłem czas na ręczne oznaczenie każdego mówcy w moim 50th Birthday Video, aby zapewnić mu potrzebną treść.

Wnioski

Biorąc pod uwagę całą pracę, jaką wykonałem w ciągu ostatnich dwunastu miesięcy nad wszystkimi rzeczami związanymi ze sztuczną inteligencją, wydaje się, że istnieje jasny, uniwersalny wniosek: im dłużej czekasz, tym tańsze, łatwiejsze i lepsze staje się to i tym bardziej prawdopodobne, że Open AI to zaoferuje! W międzyczasie daj mi znać, jeśli masz jakieś pytania.

Autor Rose BrownData publikacji 30 września, 20241 października, 2024Kategorie Gadżety techniczne, Osobiste przemyśleniaDodaj komentarz do Fabrice AI: Obecna implementacja techniczna

Fabrice AI: Techniczna podróż

Fabrice AI: Techniczna podróż

Jak wspomniałem w poprzednim poście, rozwój Fabrice AI okazał się o wiele bardziej złożony niż oczekiwano, zmuszając mnie do zbadania wielu różnych podejść.

Podejście początkowe: Llama Index – wyszukiwanie wektorowe

Moja pierwsza próba ulepszenia zdolności wyszukiwania Fabrice AI polegała na wykorzystaniu indeksu Llama do wyszukiwania wektorowego. Koncepcja była prosta: pobrać treści z mojego bloga, przekonwertować je na dokumenty Langchain, a następnie przekształcić je w dokumenty Llama. Te dokumenty Llama byłyby następnie przechowywane w indeksie wektorowym, umożliwiając mi wyszukiwanie w tym indeksie odpowiednich informacji.

Gdy jednak zacząłem testować system, okazało się, że takie podejście nie przynosi oczekiwanych rezultatów. W szczególności, gdy zadawałem systemowi pytania kontekstowe, takie jak „Jakie są największe błędy popełniane przez założycieli rynku?”, sztuczna inteligencja nie dostarczała znaczących odpowiedzi. Zamiast pobierać zniuansowane treści, o których wiedziałem, że są osadzone w danych, zwracała nieistotne lub niekompletne odpowiedzi.

Ta początkowa porażka skłoniła mnie do ponownego rozważenia mojego podejścia. Zdałem sobie sprawę, że samo przechowywanie treści w indeksie wektorowym nie wystarczy; mechanizm wyszukiwania musiał zrozumieć kontekst i niuanse zadawanych pytań. Ta świadomość była pierwszą z wielu lekcji, które ukształtowały ewolucję Fabrice AI.

Przechowywanie wiedzy: Przechowywanie i odzyskiwanie dokumentów MongoDB

Mając na uwadze ograniczenia podejścia Llama Index, następnie zbadałem przechowywanie dokumentów Llama w MongoDB. Elastyczny schemat MongoDB i struktura zorientowana na dokumenty wydawały się obiecującym rozwiązaniem do zarządzania różnymi rodzajami treści, które gromadziłem przez lata.

Plan zakładał stworzenie bardziej dynamicznego i responsywnego środowiska wyszukiwania. Jednak to podejście szybko napotkało problemy. Funkcja wyszukiwania, która miała być bardziej niezawodna, nie działała zgodnie z oczekiwaniami. Zapytania, które powinny zwracać odpowiednie dokumenty, zamiast tego nie dawały żadnych wyników lub zawierały nieistotne treści.

To niepowodzenie było frustrujące, ale podkreśliło również kluczową lekcję: metoda przechowywania jest tak samo ważna jak strategia wyszukiwania. Zacząłem rozważać inne opcje, takie jak wykorzystanie MongoDB Atlas do wyszukiwania wektorowego, które potencjalnie mogłoby zapewnić precyzję i skalowalność, których potrzebowałem. Jednak zanim zdecydowałem się na tę alternatywę, chciałem zbadać inne podejścia, aby ustalić, czy może istnieć bardziej skuteczne rozwiązanie.

Pobieranie metadanych i sklep z wektorami: Poszukiwanie specyfiki

Jedną z kolejnych dróg, które zbadałem, było użycie narzędzia do pobierania metadanych w połączeniu z magazynem wektorowym. Ideą tego podejścia było skategoryzowanie ogromnej ilości informacji w Fabrice AI, a następnie pobranie odpowiedzi na podstawie tych kategorii. Strukturyzując dane za pomocą metadanych, miałem nadzieję poprawić zdolność sztucznej inteligencji do udzielania konkretnych, ukierunkowanych odpowiedzi.

Metoda ta miała jednak również swoje ograniczenia. Choć z pozoru wydawała się obiecująca, sztuczna inteligencja z trudem udzielała dokładnych odpowiedzi na wszystkie rodzaje zapytań. Na przykład, gdy zapytałem: „Czy autor jest optymistą?”. System nie zinterpretował pytania w kontekście odpowiedniej treści. Zamiast zapewnić wnikliwą analizę opartą na metadanych, albo zwracał niejasne odpowiedzi, albo nie udzielał ich wcale.

To podejście nauczyło mnie cennej lekcji na temat znaczenia kontekstu w sztucznej inteligencji. Nie wystarczy po prostu kategoryzować informacje; sztuczna inteligencja musi również rozumieć, w jaki sposób te kategorie współdziałają i nakładają się na siebie, tworząc spójne zrozumienie treści. Bez tego dogłębnego zrozumienia nawet najbardziej wyrafinowane metody wyszukiwania mogą okazać się niewystarczające.

Strukturyzacja wiedzy: SummaryTreeIndex

Kontynuując udoskonalanie Fabrice AI, eksperymentowałem z tworzeniem SummaryTreeIndex. Podejście to miało na celu podsumowanie wszystkich dokumentów w formacie drzewa, umożliwiając sztucznej inteligencji poruszanie się po tych podsumowaniach i wyszukiwanie istotnych informacji w oparciu o strukturę treści.

Pomysł polegał na tym, że podsumowując dokumenty, sztuczna inteligencja mogła szybko zidentyfikować kluczowe punkty i odpowiedzieć na zapytania zwięzłymi, dokładnymi informacjami. Jednak metoda ta napotkała również poważne wyzwania. Sztuczna inteligencja miała trudności z udzielaniem znaczących odpowiedzi na złożone zapytania, takie jak „Jak podejmować ważne decyzje w życiu?”. Zamiast czerpać z bogatych, zniuansowanych treści przechowywanych w podsumowaniach, odpowiedzi AI były często płytkie lub niekompletne.

To doświadczenie uwypukliło trudność w równoważeniu szerokości i głębokości w sztucznej inteligencji. Podczas gdy podsumowania mogą zapewnić ogólny przegląd, często brakuje im szczegółowego kontekstu potrzebnego do udzielenia odpowiedzi na bardziej złożone pytania. Zdałem sobie sprawę, że każde skuteczne rozwiązanie będzie musiało integrować zarówno szczegółowe treści, jak i podsumowania wysokiego poziomu, pozwalając sztucznej inteligencji czerpać z obu w razie potrzeby.

Dlatego w wersji Fabrice AI, która jest obecnie dostępna, najpierw podaję podsumowanie odpowiedzi, zanim przejdę do bardziej szczegółowych informacji.

Poszerzanie horyzontów: Indeks wykresu wiedzy

Uznając ograniczenia poprzednich metod, zwróciłem się ku bardziej wyrafinowanemu podejściu: indeksowi grafu wiedzy. Podejście to polegało na konstruowaniu grafu wiedzy z nieustrukturyzowanego tekstu, umożliwiając sztucznej inteligencji angażowanie się w zapytania oparte na encjach. Celem było stworzenie bardziej dynamicznego i wzajemnie powiązanego zrozumienia treści, co pozwoliło sztucznej inteligencji Fabrice skuteczniej odpowiadać na złożone, kontekstowe pytania.

Pomimo swoich obietnic, indeks Knowledge Graph napotkał również znaczące przeszkody. Sztuczna inteligencja miała trudności z uzyskaniem dokładnych wyników, szczególnie w przypadku zapytań, które wymagały głębokiego zrozumienia kontekstu. Na przykład na pytanie „Jakie są uczciwe wyceny seedów i serii A?” sztuczna inteligencja ponownie nie udzieliła trafnej odpowiedzi, podkreślając trudność integracji nieustrukturyzowanego tekstu w spójny graf wiedzy.

Podejście to, choć ostatecznie nieudane, dostarczyło ważnych informacji na temat wyzwań związanych z wykorzystaniem grafów wiedzy w sztucznej inteligencji. Złożoność danych i potrzeba precyzyjnego kontekstu oznaczały, że nawet dobrze skonstruowany graf wiedzy mógł mieć trudności z dostarczeniem pożądanych wyników. Kolejną wadą Knowledge Graph Index była jego niska prędkość. Czas odpowiedzi w celu uzyskania powiązanych dokumentów był bardzo wysoki w porównaniu do indeksu wektorowego.

Ponowna ocena danych: Gemini

Po kilku niepowodzeniach zdecydowałem się na inne podejście, wykorzystując sztuczną inteligencję Google Gemini. Pomysł polegał na utworzeniu zestawów danych z plików JSON-CSV, a następnie wytrenowaniu niestandardowego modelu LLM przy użyciu tych danych. Miałem nadzieję, że dzięki wykorzystaniu ustrukturyzowanych danych i solidnego modelu szkoleniowego uda mi się pokonać niektóre z wyzwań, które nękały poprzednie próby.

Jednak to podejście również napotkało trudności. Proces szkolenia został zatrzymany z powodu nieprawidłowego formatowania danych, co uniemożliwiło skuteczne szkolenie modelu. To niepowodzenie podkreśliło znaczenie integralności danych w szkoleniu AI. Bez odpowiednio sformatowanych i ustrukturyzowanych danych nawet najbardziej zaawansowane modele mogą nie działać zgodnie z oczekiwaniami.

To doświadczenie skłoniło mnie do rozważenia możliwości wykorzystania BigQuery do przechowywania danych JSON, zapewniając bardziej skalowalną i niezawodną platformę do zarządzania dużymi zbiorami danych potrzebnymi do skutecznego szkolenia Fabrice AI.

Łączenie mocnych stron: Dokumenty Langchain z Pinecone

Pomimo dotychczasowych wyzwań, byłem zdeterminowany, aby znaleźć rozwiązanie, które pozwoliłoby Fabrice AI skutecznie przechowywać i pobierać wiedzę. Ta determinacja doprowadziła mnie do eksperymentowania z dokumentami Langchain i Pinecone. Podejście polegało na utworzeniu magazynu wektorowego Pinecone przy użyciu dokumentów Langchain i osadzeń OpenAI, a następnie pobraniu najbardziej podobnych dokumentów na podstawie zapytania.

Metoda ta okazała się obiecująca, zwłaszcza gdy zapytanie zawierało tytuł dokumentu. Na przykład, gdy zapytano: „Jaki jest klucz do szczęścia?”, sztuczna inteligencja była w stanie dokładnie pobrać i podsumować odpowiednią treść. Nadal jednak istniały ograniczenia, zwłaszcza gdy zapytanie nie zawierało konkretnych słów kluczowych lub tytułów.

Podejście to pokazało potencjał łączenia różnych technologii w celu zwiększenia wydajności sztucznej inteligencji. Integrując dokumenty Langchain z magazynem wektorowym Pinecone, byłem w stanie poprawić trafność i dokładność odpowiedzi sztucznej inteligencji, choć z pewnymi ograniczeniami.

Osiągnięcie spójności: GPT Builder OpenAI

Po zbadaniu różnych metod i technologii, zwróciłem się do Open AI GPT Builder, aby skonsolidować i udoskonalić wiedzę przechowywaną w Fabrice AI. Przesyłając całą zawartość do bazy wiedzy GPT, chciałem stworzyć bardziej spójną i niezawodną platformę do wyszukiwania i interakcji z moją wiedzą.

Podejście to okazało się jednym z najbardziej udanych, a sztuczna inteligencja była w stanie zapewnić lepsze wyniki w przypadku wielu zapytań. Kluczem do tego sukcesu była integracja całej wiedzy w jeden spójny system, umożliwiający sztucznej inteligencji korzystanie z pełnego zakresu treści podczas odpowiadania na pytania.

Jak wspomniałem w moim poprzednim poście, nie mogłem go uruchomić na mojej stronie internetowej i był dostępny tylko dla płatnych subskrybentów Chat GPT, co uważałem za zbyt ograniczające. Ponadto, choć było lepiej, nadal nie podobała mi się jakość odpowiedzi i nie czułem się komfortowo, udostępniając je publicznie.

Ostateczne udoskonalenie: Asystenci GPT korzystający z modelu 4o

Ostatnim elementem układanki w rozwoju Fabrice AI było wprowadzenie asystentów GPT przy użyciu Modelu 4o. Podejście to stanowiło kulminację wszystkiego, czego nauczyłem się podczas całego projektu. Wykorzystując wektorową bazę danych i udoskonalając podpowiedzi, starałem się osiągnąć najwyższy możliwy poziom dokładności i zrozumienia kontekstu w odpowiedziach AI.

Metoda ta polegała na przesłaniu całej zgromadzonej przeze mnie wiedzy do wektorowej bazy danych, która została następnie wykorzystana jako podstawa interakcji sztucznej inteligencji. Wektorowa baza danych pozwoliła sztucznej inteligencji na przeprowadzanie bardziej zaawansowanych wyszukiwań, pobierając informacje w oparciu o semantyczne znaczenie zapytań, zamiast polegać wyłącznie na dopasowywaniu słów kluczowych. Oznaczało to znaczny postęp w stosunku do poprzednich podejść, umożliwiając sztucznej inteligencji lepsze zrozumienie i reagowanie na złożone, zniuansowane pytania.

Jedną z kluczowych innowacji tego podejścia było staranne dopracowanie podpowiedzi. Poprzez skrupulatne tworzenie i testowanie różnych podpowiedzi, byłem w stanie poprowadzić sztuczną inteligencję w kierunku dostarczania bardziej dokładnych i trafnych odpowiedzi. Wiązało się to nie tylko z poprawianiem brzmienia podpowiedzi, ale także eksperymentowaniem z różnymi sposobami konstruowania zapytań w celu uzyskania najlepszych możliwych odpowiedzi.

Wyniki były imponujące. Sztuczna inteligencja była teraz w stanie obsłużyć szeroki zakres zapytań z dużą dokładnością, nawet gdy pytania były otwarte lub wymagały głębokiego zrozumienia kontekstu. Na przykład, na pytanie „Jak podejmować najważniejsze decyzje w życiu?” Sztuczna inteligencja udzieliła wyczerpującej i wnikliwej odpowiedzi, opierając się na różnych źródłach i perspektywach, aby zapewnić wszechstronną odpowiedź.

Sukces ten był kulminacją setek godzin pracy i niezliczonych eksperymentów. Pokazał on, że dzięki odpowiedniej kombinacji technologii i udoskonaleń, możliwe jest stworzenie sztucznej inteligencji, która nie tylko może skutecznie przechowywać i wyszukiwać informacje, ale także angażować się w nie w znaczący sposób. Rozwój GPT Assistants przy użyciu Modelu 4o wyznaczył punkt, w którym Fabrice AI naprawdę się rozwinęła, osiągając poziom wyrafinowania i dokładności, który wyobrażałem sobie od samego początku. Interfejs API GPT Assistants został następnie zintegrowany z moim blogiem, aby umożliwić użytkownikom końcowym interakcję z Fabrice AI w sposób, w jaki widzisz go teraz na blogu.

Refleksja nad podróżą

Proces rozwoju Fabrice AI uwypuklił złożoność pracy ze sztuczną inteligencją, szczególnie jeśli chodzi o zrozumienie i kontekstualizację informacji. Nauczyło mnie to, że w rozwoju sztucznej inteligencji nie ma drogi na skróty – każdy krok, każda iteracja i każdy eksperyment jest niezbędną częścią podróży w kierunku stworzenia czegoś naprawdę skutecznego.

Patrząc w przyszłość, jestem podekscytowany dalszym udoskonalaniem i rozszerzaniem Fabrice AI. Jak wspomniałem w ostatnim poście, przejrzę zadane pytania, aby uzupełnić bazę wiedzy tam, gdzie są luki. Mam również nadzieję, że w końcu wydam interaktywną wersję, która wygląda i brzmi jak ja, z którą można porozmawiać.

Autor Rose BrownData publikacji 4 września, 20245 września, 2024Kategorie Osobiste przemyślenia, Gadżety techniczneDodaj komentarz do Fabrice AI: Techniczna podróż

Search

Recent Posts

  • Sens życia
  • Aktualizacja FJ Labs Q2 2025
  • Rozmowa z Aurenem Hoffmanem na temat świata DaaS: zdywersyfikowane portfele, sprzedaż wtórna i przyjęcia obiadowe
  • Odcinek 50: Trendy na rynku venture
  • Dekodowanie przyszłości: AI, rynek venture i rynki zbytu

Recent Comments

    Archives

    • lipiec 2025
    • czerwiec 2025
    • maj 2025
    • kwiecień 2025
    • marzec 2025
    • luty 2025
    • styczeń 2025
    • grudzień 2024
    • listopad 2024
    • październik 2024
    • wrzesień 2024
    • sierpień 2024
    • lipiec 2024
    • czerwiec 2024
    • maj 2024
    • kwiecień 2024
    • marzec 2024
    • luty 2024
    • styczeń 2024
    • grudzień 2023
    • listopad 2023
    • październik 2023
    • wrzesień 2023
    • sierpień 2023
    • czerwiec 2023
    • maj 2023
    • kwiecień 2023
    • marzec 2023
    • luty 2023
    • styczeń 2023
    • grudzień 2022
    • listopad 2022
    • październik 2022
    • wrzesień 2022
    • sierpień 2022
    • czerwiec 2022
    • maj 2022
    • kwiecień 2022
    • marzec 2022
    • luty 2022
    • styczeń 2022
    • listopad 2021
    • październik 2021
    • wrzesień 2021
    • sierpień 2021
    • lipiec 2021
    • czerwiec 2021
    • kwiecień 2021
    • marzec 2021
    • luty 2021
    • styczeń 2021
    • grudzień 2020
    • listopad 2020
    • październik 2020
    • wrzesień 2020
    • sierpień 2020
    • lipiec 2020
    • czerwiec 2020
    • maj 2020
    • kwiecień 2020
    • marzec 2020
    • luty 2020
    • styczeń 2020
    • listopad 2019
    • październik 2019
    • wrzesień 2019
    • sierpień 2019
    • lipiec 2019
    • czerwiec 2019
    • kwiecień 2019
    • marzec 2019
    • luty 2019
    • styczeń 2019
    • grudzień 2018
    • listopad 2018
    • październik 2018
    • sierpień 2018
    • czerwiec 2018
    • maj 2018
    • marzec 2018
    • luty 2018
    • styczeń 2018
    • grudzień 2017
    • listopad 2017
    • październik 2017
    • wrzesień 2017
    • sierpień 2017
    • lipiec 2017
    • czerwiec 2017
    • maj 2017
    • kwiecień 2017
    • marzec 2017
    • luty 2017
    • styczeń 2017
    • grudzień 2016
    • listopad 2016
    • październik 2016
    • wrzesień 2016
    • sierpień 2016
    • lipiec 2016
    • czerwiec 2016
    • maj 2016
    • kwiecień 2016
    • marzec 2016
    • luty 2016
    • styczeń 2016
    • grudzień 2015
    • listopad 2015
    • wrzesień 2015
    • sierpień 2015
    • lipiec 2015
    • czerwiec 2015
    • maj 2015
    • kwiecień 2015
    • marzec 2015
    • luty 2015
    • styczeń 2015
    • grudzień 2014
    • listopad 2014
    • październik 2014
    • wrzesień 2014
    • sierpień 2014
    • lipiec 2014
    • czerwiec 2014
    • maj 2014
    • kwiecień 2014
    • luty 2014
    • styczeń 2014
    • grudzień 2013
    • listopad 2013
    • październik 2013
    • wrzesień 2013
    • sierpień 2013
    • lipiec 2013
    • czerwiec 2013
    • maj 2013
    • kwiecień 2013
    • marzec 2013
    • luty 2013
    • styczeń 2013
    • grudzień 2012
    • listopad 2012
    • październik 2012
    • wrzesień 2012
    • sierpień 2012
    • lipiec 2012
    • czerwiec 2012
    • maj 2012
    • kwiecień 2012
    • marzec 2012
    • luty 2012
    • styczeń 2012
    • grudzień 2011
    • listopad 2011
    • październik 2011
    • wrzesień 2011
    • sierpień 2011
    • lipiec 2011
    • czerwiec 2011
    • maj 2011
    • kwiecień 2011
    • marzec 2011
    • luty 2011
    • styczeń 2011
    • grudzień 2010
    • listopad 2010
    • październik 2010
    • wrzesień 2010
    • sierpień 2010
    • lipiec 2010
    • czerwiec 2010
    • maj 2010
    • kwiecień 2010
    • marzec 2010
    • luty 2010
    • styczeń 2010
    • grudzień 2009
    • listopad 2009
    • październik 2009
    • wrzesień 2009
    • sierpień 2009
    • lipiec 2009
    • czerwiec 2009
    • maj 2009
    • kwiecień 2009
    • marzec 2009
    • luty 2009
    • styczeń 2009
    • grudzień 2008
    • listopad 2008
    • październik 2008
    • wrzesień 2008
    • sierpień 2008
    • lipiec 2008
    • czerwiec 2008
    • maj 2008
    • kwiecień 2008
    • marzec 2008
    • luty 2008
    • styczeń 2008
    • grudzień 2007
    • listopad 2007
    • październik 2007
    • wrzesień 2007
    • sierpień 2007
    • lipiec 2007
    • czerwiec 2007
    • maj 2007
    • kwiecień 2007
    • marzec 2007
    • luty 2007
    • styczeń 2007
    • grudzień 2006
    • listopad 2006
    • październik 2006
    • wrzesień 2006
    • sierpień 2006
    • lipiec 2006
    • czerwiec 2006
    • maj 2006
    • kwiecień 2006
    • marzec 2006
    • luty 2006
    • styczeń 2006
    • grudzień 2005
    • listopad 2005

    Categories

    • Polecane posty
    • Nowy Jork
    • Przegląd roku
    • Zabawy
    • Przedsiębiorczość
    • Szczęście
    • Przemówienia
    • OLX
    • Zabawa z jednorożcami
    • FJ Labs
    • Filmy i programy telewizyjne
    • Wywiady i rozmowy przy kominku
    • Osobiste przemyślenia
    • Książki
    • Przemyślenia biznesowe
    • Gry wideo
    • Crypto/Web3
    • Gospodarka
    • Rynki zbytu
    • Gadżety techniczne
    • Podróże
    • Przegląd roku
    • Optymalizacja życia
    • FJ Labs
    • Podejmowanie decyzji
    • Gospodarka
    • Asset Light Living
    • Przemyślenia
    • Optymizm i szczęście
    • Psy

    Meta

    • Zaloguj się
    • Kanał wpisów
    • Kanał komentarzy
    • WordPress.org
    Pitch me your startup!
    • Home
    • Playing with Unicorns
    • Featured
    • Categories
    • Portfolio
    • About Me
    • Newsletter
    • Privacy Policy
    × Image Description

    Subscribe to Fabrice's Newsletter

    Tech Entrepreneurship, Economics, Life Philosophy and much more!

    Check your inbox or spam folder to confirm your subscription.

    >
    This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.