birkaç yıl önce bunun internet üzerinden bilgi yayılımı ve ayrıca Aİ'lerin kendi güçlü ve zayıf yönlerini nasıl kullanabilecekleri hakkında harika fikirler bulmaları sayesinde olağandışı bir hızda ilerleyebileceğini düşündüm. ama şu an bu konuda emin değilim.
Herkes AI tarihinden, Perceptron'dan Backprop'a ve Transformers'a kadar bahsediyor ama gerçek hikaye, her aşamanın güven ve ölçekleme sorununu çözmekle ilgili olmasıdır. Bu yüzden belirli blockchain platformları gibi projeler önemlidir. AI yalnızca daha akıllı modeller inşa etmekle ilgili değildir, aynı zamanda oluşturmakla da ilgilidir.
Neden, temel tüketici sınıfı NVMe sürücülerinin 2 milyonun üzerinde 4kb rastgele okuma IOPS değerine sahip olduğu zaman, tiered storage Solana'da gerçek bir sorun? 100 milyon CU'da bile, ve neden protokol, bir doğrulayıcı/müşterinin yavaş oylama/blok üretimi için hangi uzlaşmaları yapmak istediğini önemsemeli? Zaten yavaş oylama/blok üretimi cezalandırılıyor.
Ancak verilerin temizlenmesi, sınıflandırma algoritmalarının arkasında veri ekibinin mühendislik yetenekleri vardır ve bunlar arasında farklar vardır; aynı zamanda bazı veri ekipleri kapalı kaynaklı kurumsal verilere de erişim sağlayabiliyor.
Düşünmesi çılgınca, geçen Aralık'ta bu istemi + semil Python tabanlı Twitter otomasyonu yanıtlarını 900M'e çıkardığımızı düşünüyoruz: ama burada hala bazen teknolojinin ne kadar iyi olduğundan bahsediyoruz… bir teknoloji olduğunda. Otizm kazanır.
Bu, bir blockchain projesi için planlanan masaüstü arayüzünün bir parçası, ancak dürüst olmak gerekirse, bunu manuel olarak inşa etmek ve geliştirme ağını takip etmek bir kabus olurdu.
aslında, iki tur Alpenglow konsensüsüne ulaşmak için yalnızca ~%60 çoğaltmaya ihtiyacımız var. bu gereksinimlerin son derece düşük olduğunu düşünüyorum.