Dalam tulisan terakhir, Fabrice AI: Perjalanan Teknis, saya menjelaskan perjalanan yang kami lalui dalam membangun Fabrice AI secara menyeluruh. Saya mulai dengan menggunakan Chat GPT 3 dan 3.5. Kecewa dengan hasilnya, saya mencoba menggunakan Langchain Framework untuk membangun model AI saya sendiri di atasnya, sebelum kembali ke Chat GPT setelah mereka mulai menggunakan database vektor dan secara besar-besaran meningkatkan hasil dengan 4o.
Berikut ini adalah proses saat ini untuk melatih Fabrice AI:
- Data pelatihan (posting blog, URL Youtube, URL podcast, URL PDF, dan URL gambar) disimpan dalam database WordPress kami.
- Kami mengekstrak data dan menyusunnya.
- Kami menyediakan data terstruktur ke Open AI untuk pelatihan menggunakan API Asisten.
- Open AI kemudian membuat basis data penyimpanan vektor dan menyimpannya.
Berikut ini adalah contoh sepotong data terstruktur. Setiap bagian dari konten memiliki file JSON-nya sendiri. Kami memastikan untuk tidak melebihi batas 32.000 token.
{
“id”: “1”,
“tanggal”: ” “,
“link”: “https://fabricegrinda.com/”,
“judul”: {
“diberikan”: “Apa itu Fabrice AI?”
},
“Kategori”: “Tentang Fabrice”,
“featured_media”: “https://fabricegrinda.com/wp-content/uploads/2023/12/About-me.png”,
“media_lainnya”: “”,
“jenis_pengetahuan”: “blog”,
“kontenDiperbarui”: “Fabrice AI adalah representasi digital dari pemikiran Fabrice berdasarkan posting blognya dan podcast serta wawancara yang ditranskripsikan menggunakan ChatGPT. Mengingat banyak transkripsi yang ditranskripsikan dengan tidak sempurna dan blog ini hanyalah representasi terbatas dari Fabrice sebagai individu, kami mohon maaf atas ketidakakuratan dan informasi yang hilang. Meskipun demikian, ini adalah titik awal yang baik untuk mendapatkan pemikiran Fabrice tentang banyak topik.”
}
Ini adalah implementasi teknis saat ini:
- Situs web yang berhadapan dengan konsumen dihosting di AWS Amplify.
- Integrasi antara situs publik dan Open AI dilakukan melalui lapisan API, yang dihosting di AWS sebagai server API Python.
- Kami menggunakan MongoDB sebagai log untuk menyimpan semua pertanyaan yang diajukan oleh publik, jawaban yang diberikan oleh Chat GPT, dan URL dari sumber.
- Kami menggunakan berbagai skrip untuk menyusun data dari blog, YouTube, dan lain-lain untuk diteruskan ke Open AI untuk pelatihan.
- Kami menggunakan React-Speech Recognition untuk mengubah pertanyaan suara menjadi teks.
- Kami juga menggunakan Google Analytics untuk melacak lalu lintas situs web.
Penting untuk dicatat bahwa kami menggunakan dua asisten:
- Satu untuk menjawab pertanyaan.
- Satu untuk mendapatkan URL metadata, URL blog yang memiliki konten asli untuk menampilkan sumber di bagian bawah jawaban.
Apa selanjutnya?
- Peningkatan Ucapan ke Teks
Model Whisper dari Open AI untuk ucapan ke teks lebih akurat daripada React. Open AI juga mendukung berbagai bahasa dan bagus dalam menangani ucapan, aksen, dan dialek bahasa campuran. Sebagai hasilnya, saya kemungkinan besar akan beralih ke sana dalam beberapa bulan mendatang. Namun demikian, ini lebih rumit untuk disiapkan, jadi mungkin akan memakan waktu cukup lama. Anda perlu menangani modelnya, mengelola ketergantungan (misalnya, Python, pustaka), dan memastikan Anda memiliki perangkat keras yang memadai untuk kinerja yang efisien. Selain itu, Whisper tidak dirancang untuk penggunaan langsung di browser. Ketika membuat aplikasi web, Anda perlu membuat layanan backend untuk menangani transkripsi yang menambah kerumitan.
- Fabrice AI Avatar
Saya ingin membuat Avatar AI Fabrice yang terlihat dan terdengar seperti saya yang dapat diajak bercakap-cakap. Saya mengevaluasi D-iD tetapi ternyata terlalu mahal untuk tujuan saya. Eleven Labs hanya untuk suara. Synthesia sangat bagus tetapi saat ini tidak dapat membuat video secara real time. Pada akhirnya saya memutuskan untuk menggunakan HeyGen karena harga dan fungsionalitasnya yang lebih sesuai.
Saya menduga bahwa suatu saat Open AI akan merilis solusinya sendiri sehingga pekerjaan ini tidak akan sia-sia. Saya merasa nyaman dengan hal tersebut dan akan beralih ke solusi Open AI ketika dan jika solusi tersebut hadir. Pada tahap ini, inti dari seluruh latihan ini adalah untuk mempelajari apa yang mungkin dilakukan dengan AI dan berapa banyak pekerjaan yang diperlukan untuk membantu saya memahami ruang tersebut dengan lebih baik.
- Dasbor Khusus
Saat ini, saya perlu menjalankan kueri MongoDB untuk mendapatkan ekstrak pertanyaan dan jawaban hari ini. Saya sedang membuat dasbor sederhana di mana saya bisa mendapatkan ekstraksi dan statistik sederhana tentang jumlah kueri per bahasa, jumlah permintaan ucapan-ke-teks, dll.
- Sumber Data Tambahan
Kami baru saja mengunggah Portofolio FJ Labs ke Fabrice AI. Anda sekarang dapat bertanya apakah sebuah perusahaan merupakan bagian dari portofolio. Fabrice AI menjawab dengan deskripsi singkat tentang perusahaan dan tautan ke situs webnya.
Mengingat banyaknya pertanyaan pribadi yang diterima Fabrice AI yang tidak dapat dijawabnya, saya meluangkan waktu untuk secara manual menandai setiap pembicara dalam Video Ulang Tahun ke-50 saya untuk memberikan konten yang dibutuhkan.
Kesimpulan
Dengan semua pekerjaan yang telah saya lakukan selama dua belas bulan terakhir tentang semua hal yang berhubungan dengan AI, tampaknya ada kesimpulan universal yang jelas: semakin lama Anda menunggu, semakin murah, mudah, dan lebih baik, dan semakin besar kemungkinan Open AI akan menawarkannya! Sementara itu, beritahu saya jika Anda memiliki pertanyaan.