TRANSKRYPCJA VIDEO
Dla tego filmu nie wygenerowano opisu.
Czy projekt Bit Tensor to szatan czy borowik? Zapraszam na spotkanie z Grzybowierem. To jest świetne. Myślę też, że Bit Tensor, jeżeli się w niego faktycznie wejdzie, bo on z zewnątrz może wyglądać jak taka puszka Pandory faktycznie, nie wiadomo co w środku jest. My natomiast, jakby troszeczkę funkcjonując od wewnątrz, widzimy, że te mechanizmy faktycznie działają, to nie jest wydmuszka. To jest coś, co funkcjonuje, działa, to nie jest jakiś taki projekt, który udaje coś, czym nie jest. Więc tutaj też nabiera się trochę więcej pewności, kiedy się zajrzy od kuchni. Witam bardzo serdecznie. Jesteśmy we Wrocławiu na konferencji Cryptosphere. Wielu wariatów od kryptowalut tutaj się znalazło, w tym Grzybomir. Cześć Andrzej, dzięki, że mnie tutaj masz.
A jestem super przeszczęśliwy, bo Grzybomir to tutaj jest jednym z naszych czołowych rozpoznawaczy Bit Tensor'a, ta, o do czego dojdziemy. Ale na początek może byśmy troszeczkę poznali, kim jest Grzybomir. Skąd się wziąłeś w siecie krypto? Ja w krypto jestem od 2016 roku, tak naprawdę. Przygodę zaczynałem od tego, że temat kopania Ethereum mnie troszeczkę zainteresowało. Zbudowałem sobie jakieś koparki, troszeczkę próbowałem z na stronę kombinować. No i na początku ograniczam się do takich głównych kryptowalut z głównego nurtu z pierwszej dziesiątki, gdzieś tam to mnie interesowało. Potem bardzo mocno wpadłem w kosmos, bardzo mnie zainteresowało to, w jaki sposób działa IBC i kosmos, jakby to moje zainteresowanie poszło w tamtą stronę i skupiłem się właśnie na tym, żeby zrozumieć infrastrukturę.
Potem kolejne airdrope, kolejne projekty, więc ta wiedza mi się gdzieś bardzo zaczęła rozlewać, rozszerzać. No i też jakby przez pewien czas funkcjonowałem w grupie, która była skupiona mocno na Polkadot, więc tam gdzieś te projekty z ekosystemu zaczęły się przewileć, pojawiać. No i przez te wszystkie lata gdzieś w końcu doszliśmy do takiego momentu, gdzie pojawił się BitTensor, BitTensor jest właśnie projektem na substrate Polki. No i jest to bardzo interesujący projekt. Tak, no to tutaj ja już się też zdążyłem wkręcić, żywiec mnie jakiś czas temu zaraził BitTensorem i tak go sobie przez ostatnie tygodnie i miesiące rozkminiam.
Dojdziemy do tego co konkretnie jest z tym BitTensorem, ale BitTensor, czyli do BitTensora trafiłeś przez Polkę, no bo BitTensor to jest jeden w tej chwili już z parachainów na Polsce, prawda? Wygrali parachain, tak. Niedawno i 13 lutego wystartuje oficjalnie już jako parachain w wersji finii, jako oficjalny parachain Polka.
Ok, no to to jest bardzo też ciekawy moment dla samego projektu, natomiast ja nagrałem dotychczas jeden film o BitTensorze u siebie na kanale, to widzowie, jeżeli tam nie trafiliście jeszcze, to wydaje mi się, że warto się tym zainteresować, ale może twoimi słowami, bo zdecydowanie jesteś myślę, że bardziej techniczny i zdecydowanie bardziej w temacie BitTensora ode mnie, BitTensor to jest szeroki temat sztucznej inteligencji adresuje i twoim zdaniem po co w ogóle nam jakiś blockchain, jakieś kryptowaluty we sztucznej inteligencji, przecież mamy wspaniałe chat GPT, mamy rozwiązania, midjury i kto tam jeszcze, dali tu i tak dalej, przecież to wszystko działa, ciągną to fajne firmy i gdzie tu blockchain to tam na siłę, taki hajf robicie pod tego Tao.
Ja myślę, że słowem kluczem jest tutaj, że to ciągną fajne firmy, czy te firmy są fajne czy nie fajne, jest to kwestia już jakby bardzo do dywagacji, dlatego że za każdym razem jeżeli podmiot centralizowany jakby zajmuje się rozwojem takiej technologii, a jest to technologia absolutnie przełomowa i zmieniająca życie, myślę, że w ogóle to, że to AI jest przemycane cały czas naszego życia, czy to jest w postaci właśnie wcześniej takich rzeczy jak Siri, Google Assistant, jak wspomagań do palania map, jak do palania serczy, targetowanie marketingu, reklam i tak dalej, to wszystko, wszystko jest ogromna domena AI, którego my nie widzimy, to nie jest transparentne, ale przez to, że nie jest transparentne i jest robione, zarządzane przez konkretne firmy, to jakby realizuje cele tych konkretnych firm.
Mało tego, to jest technologia bardzo niedostępna do małych podmiotów, dla zwykłego zjadacza chleba jest absolutnie niedostępna, dlatego że postawienie infrastruktury po AI, gdzie duże modele, na przykład transformersy tekstu zajmują kilkadziesiąt, potrafią zajmować kilkadziesiąt gigabajtów VRAM-u na tych dedykowanych układach GPO, na których są serwowane, no to wiadomo, że postawienie takie rzeczy, które jest poza absolutnie osiągiem zwykłego zjadacza chleba. I teraz, co w takim wypadku, jeżeli mamy małą firmę startup, który by chciał wykorzystywać jakoś AI na przykład, ale nie ma do tego dostępu.
Zresztą jeszcze chciałem uzupełnić, że większość tych narzędzi, które teraz znamy, Dali, Dali już jest komercyjne, pozwala zrobić kilka jakichś tam transformacji, ale za chwilę, po jakieś tam, nie pamiętam już w tej chwili, nie chcę skłamać, ale czy to jest 10, czy to jest 100 zgłoszeń, przestaje być jakby darmowy. Mid Journey jest jeszcze, jeszcze jest darmowy, oczywiście ma jakiś plan premium, ChattGPT już nie jest, już nie jest w tej chwili w formie abonamentu, Microsoft kontroluje ChattGPT, więc w tej chwili wiadomo, to już jest komercjalizowane.
No i teraz z założenia, jeżeli mamy, zachodzi potrzeba, albo AI ułatwiłoby na przykład coś w danym projekcie, czy też byłby ważnym jakby elementem takiego projektu, no małe firmy nigdy nie będą miały dostępu do czegoś, co nie będzie już jakby serwowane przez taką firmę i ukształtowane przez tą firmę w konkretnym kontekście. No załóżmy, że chcemy mieć inny kontekst.
No i tutaj właśnie wchodzi BitTensor, który jest zdecentralizowany, czyli my możemy brać udział w tej sieci na wiele różnych sposobów, możemy serwować własnym modelem, w tej chwili to jest jeszcze tak, że jest tylko jeden jakby chain, który oferuje w tej chwili transformację tekstu, czyli robi to co ChattGPT powiedzmy w różnych kontekstach, natomiast założenie jest takie, że ta sieć będzie umożliwiać robienia dużo, dużo większej ilości rzeczy powstaną pod chainy BitTensora, na przykład jeden dedykowany voice recognition, drugi dedykowany przetwarzaniu obrazów i tak dalej, i tak dalej w zależności od spektrum potrzeby, wzrostu potrzeby użycia AI, będą pojawiać się kolejne subchains.
Co jest piękne w tej sieci, one będą mogły ze sobą rozmawiać, co też powoduje, że jakby ta dokładność identyfikacji pewnych problemów, również obsługa tych problemów będzie na dużo bardziej zaawansowanym poziomie niż jakby dedykowane jedno rozwiązanie, tak jak właśnie mamy modele do transformacji tekstu, jak ChattGPT, tutaj będzie można to wszystko gdzieś połączyć. No dobra, ale to w czym to będzie lepsze, jak już mamy ChattGPT, w czym to będzie lepsze, co nam robi BitTensor? Po pierwsze ChattGPT daje właśnie ten jakby już ustrukturyzowany model, który został stworzony, wytrenowany w jakiś sposób i on odpowiada nam na te pytania, ale to zostało ustrukturyzowane.
My możemy na BitTensorze stworzyć i serwować własne modele, możemy je trenować własnymi data setami i możemy stworzyć swoje własne rozwiązania do tych świeci, które będą odpowiadały naszym potrzebom i one będą uszyte na nasze potrzeby na dużą mniejszą skalę niż na przykład wielka infrastruktura potrzebna do tego, żeby usłużyć ChattGPT. Mało tego, no jakby tutaj jest jeszcze incentive, czyli możemy tak naprawdę z jednej strony ludzie, którzy dostarczają infrastrukturę modele i tak dalej mogą na tym sobie zarabiać, nie ma centralizowanego podmiotu, który to kontroluje, więc też nie ma całkowitego wpływu i całkowitej władzy nad tym blockchainem i nad tym rozwiązaniem AI.
Fragmentami mogą zarządzać sobie poszczególni, nazwijmy ich stakeholderzy, którzy w danym momencie mają ten asset, mają TAU i mogą uczestniczyć z różnych stron w tej sieci, serwując własne modele, kupując fragment sieci, na przykład kupując sobie dzięki TAU fragment odpowiedzialny za daną funkcjonalność. Nie muszą trenować, bo może już akurat jest taki subchain, który odpowiada naszej potrzebie i możemy sobie go po prostu w jakiś sposób wypożyczyć. To jeszcze tak nie działa, bo to jest tak naprawdę koncept, który dopiero finalnie tak będzie działo. Na razie mamy tylko jeden chain, na razie on jest używalny, na razie nie jest to proste, ale w plannach za chwilę jest już interface, który będzie pozwalał na używanie go w dużo łatwiejszym sposób i sprawdzenie jak działa.
Czyli taki jest model docelowy, natomiast na tą chwilę rozumiem, że z tego co mówisz główna przewaga BitTensor jest na tym, że otwiera to środowisko. Tak, jest decentralizowany. Decentralizowany w tym zakresie, nie dla wszystkich słów, decentralizacja może coś znaczyć, więc tak żeby to rozwinąć, jest decentralizowany, bo każdy się może włączyć infrastrukturą, każdy może włączyć swój algorytm i zacząć go uczyć swoimi danymi, prawda? I nie robiąc to pro publico bono, nie robiąc jakiś system zachęt, czyli ma płacone, jak ma szczęście, bądź jak jest w tym dobry może bardziej w tym momencie. Tak, to jest element kluczowy tutaj jeszcze.
No właśnie, do tego dojdziemy, do kopania i czy w ogóle czy każdy może, ale jeszcze chciałem się chwilę odnieść jak mam tutaj Ciebie jako guru dla mnie jeżeli chodzi o tę tematykę, jak to jest z tymi analogiami, że BitTensor to jest no tak jak Bitcoin w kontekście, że Bitcoin przepala powiedzmy jakiś tam prąd i energię, żeby te buzy rozwiązać, a BitTensor, co robi BitTensor Twoimi słowami lepiej niż Bitcoin? Przede wszystkim to, że tutaj też istnieje Proof of Work, ale ten Proof of Work jest stosunkowo krótki, dlatego że Bitcoin opiera się całkowicie na Proof of Work, czyli jakby tam walka o ten blok jest zawsze, to jest jakby główny algorytm, który wankuje to czy ktoś da radę ten blok jakby ułożyć transakcje w tym bloku czy nie.
Tutaj jest troszeczkę inaczej, dlatego że Proof of Work jest na początku, kiedy my musimy od naszej strony pokazać, że mamy infrastrukturę, która będzie w stanie zaserwować taki model. Tam są specjalne kolejne zagadki przygotowane pod ten konkretny use case i są dwa stopnie tych zagadek, jeżeli pierwszy zostanie jakby zaspokojony, wchodzi drugi stopień tej zagadki i jeżeli ta zagadka zostanie rozwiązana, to wtedy najniższe 10% zawsze, czyli najmniej wydajnych modeli w sieci, przechodzi taki test zderzeniowy z osobami, które próbują zarejestrować swój neuron. I teraz w tym testie zderzeniowym jest przez chwilę tak, że oba te neurony działają na tym stan tak samoj zasadzie i w momencie, kiedy jeden przesunie się troszeczkę bardziej względem drugiego pod względem wydajności, tamten wypada. To jest bardzo konkurencyjna sieć.
I teraz tu się kończy to Proof of Work. Dalej to już jest Proof of Intelligence, czyli z założenia jest to serwowanie modeli AI, które stawia się taki serwer, który opiera się o bardzo potężne maszyny, w tej chwili NVIDI, głównie to są karty A6000, A100, które mają bardzo dużo wiramu, mają potężną moc obliczeniową i na tych maszynach można sobie serwować model. Więc ten Proof of Work jest stosunkowo krótki, w przeciwieństwie do Bitcoina dalej jak serwuje się model to już nie ma takiego. . . no i ta energia nie jest marnowana w ten sposób jak w Bitcoiniu. Bo w Bitcoiniu wiadomo tylko jeden, ten alfa minor przetworzy ten blok, a cała reszta straciła czas.
Tutaj jest ten element krótki, kiedy walczy się o zarejestrowanie neuronu, ale potem wszystko zależy od tego jak dobry model AI i jak dobrą infrastrukturę jakby z wydajem, na przykład łączem i tak dalej, ta osoba posiada i dalej już tej walki jakby nie ma, to już jest jakby serwowanie. No i do nowo najniższe 10% będzie walczyć o przetrwanie zawsze. To jest kompetentywne. Czyli Proof of Work celem jakby zawalczenia o to byśmy mogli być neuronem włączonym do sieci i potem Proof of Intelligence już innymi maszynami rozumiem też, czy to nie ma żadnego znaczenia? Nie ma. To znaczy oczywiście można troszeczkę w tej chwili ten system podejść.
Można jakby klastrem dużym kart, na których się nie da serwować modeli, powalczyć z tymi zagadkami i hash rate'em. Natomiast ten neuron potem nie utrzyma się w sieci, dlatego że jeżeli my nie będziemy w stanie mu dać infrastruktury pod dobry model, no to wypadnie poczuł około 14 godzinach, bo w tej chwili ten time frame na utrzymanie minera, czyli pokazanie, że ten miner potrafisz rozwinąć do odpowiedniego ranka i odpowiedniego trustu. Walidatorzy jakby kolektywnie decydują o tym, czy odpowiedzi z tego serwera są zadawalające. No i jeżeli tego nie zrobi i będzie w tych 10% do Perjo, to będzie walczył z kolejną rejestracją. Ok. No dobra. Czyli tak naprawdę zarejestrowałeś się, jesteś tym minerem.
Rozumiem, że lokalnie u siebie prowadzisz jakąś sieć neuronową, tak? I uczysz ją w oparciu też o swoje dane. To znaczy, to jest troszeczkę w tej chwili, tak, że jako że to jest jakby początek, bo ten projekt jest w takiej fazie, która dopiero odpala, powiedzmy to kolokwialnie, to jakby mamy, korzystamy z modeli, na których robimy fine tuning przy pomocy data setu, który wybrał BitDancer. Oni wybrali sobie, złożyli taki kolektywny data set, on się nazywa The Mountain, on zawiera w sobie Pile i parę innych, różnych, różnych, różnych, różnych, różnych, to jest ogromna ilość takich mniejszych sub data setów. Ale jest data set podłożony przez BitDancer? Tak.
My zazwyczaj używamy tego data setu, dlatego że uważamy, że skoro on jest uznany za BitDancer za optymalny, no to dobrze się go na rachę trzymać, bo on spełnia warunki jakby wejścia tej sieci. No i z założenia jest kilka różnych modeli o różnych ilościach parametrów, one są, w zależności od tego, ile tych parametrów jest, no one zajmują odpowiednią ilość. Wiramą nazwijmy, kiedy chcemy serwować te modele. Kiedy my startowaliśmy z jakimś takim zainteresowaniem wokół BitDancera i miningu, na przykład takie modele jak 1. 3b dostarczane z Hacking Face'a, można było sobie taki model wprząć, to jest odpowiednik też OpenAI modelu, tak samo jak 2.
7b, jak i od 6b, poszczególne to był GPT-2, GPT-3, no i teraz będzie kolejny GPT najprawdopodobniej. Są open source'owe wersje, my je braliśmy i tune'owaliśmy je pod konkretny data set od BitDancer przy pomocy trochę prób i błędów, przy pomocy trochę wiedzy, które nam się udało uzyskać. Dawaliśmy radę po prostu wytrenować sobie taki model, który potrafił zająć pozycję wystarczającą w sieci, aby się w niej utrzymać i spełniać te kryteria walidatorów, żeby dalej funkcjonować. Bo praca górników jest weryfikowana przez walidatorów i walidatorzy uznają, która w te sieci trenuje, bo ty w ogóle jesteś minerem. Tak, i walidatorem. I walidatorem jednocześnie też. To do tego dojdziemy. Jesteś górnikiem, masz swój neuron, szkolisz go data setem.
No i teraz w jakimś momencie okazuje się, że walidatorzy oceniają pracę, sieć wysyła do was zapytania takie czy inne, twój neuron zwraca jakieś wyniki. Jak masz szczęście, dostajesz nagrodę. Szczęście oznacza, że zostałeś dobrze oceniony przez walidatorów. Tak, tam jest pewna sumoryczna ocena. Za każdym razem, kiedy walidator wysyła zapytania, on używa również tego próbek, tego wielkiego data setu konkretnych, dostaje odpowiedź w skończonym czasie, bo tam też oczywiście są time outy, to ta struktura musi działać dosyć szybko, nie zawodnie, żeby te time outy były skończone. Jeżeli ten time out zostanie przekraczony, oczywiście wtedy ten konkretny walidator zazwyczaj blacklistuje takiego delikwenta. No i tutaj już jest egologiczna ocena.
Ale z założenia działa to w ten sposób, że sumoryczna wartość tych ocen w skończonym okresie czasu decyduje o tym, jaki rank, jaki trust sieci, czyli zaufanie sieci ten dany serwer, w danym momencie neuron, możemy go też tak nazywać, w danym momencie osiąga. No i, jako że sieć jest bardzo konkurencyjna, to w zależności od tego, gdzie ten rank, gdzie ten trust się znajduje, mamy albo spokój relatywny, bo nie jesteśmy w tych niskich 10%, albo musimy się za czymś martwić, bo jeżeli jesteśmy negatywnie oceniani przez, może nawet nie negatywnie, tylko po prostu niżej niż większość sieci, będziemy musieli pomyśleć o tym, żeby ten model podrasować, zmienić itd. , bo inaczej się nie utrzyma. Jasne.
No teraz, bo teraz powiedzmy, ja bym widział, że ten element centralizacji jednak tu występuje w postaci tego, że wszyscy uczycie się, albo większość się uczy tymi samymi danymi, tak, SpeedTensora. Tak, to jest gigantyczny odsąd. Rozumiem. Ale czy jest jakiś moment, w którym faktycznie ta nauka, twoim zdaniem, przejdzie o dowolne dane? Jak tak, to kiedy takie rzeczy. . . Tak, natomiast jest to moim zdaniem kwestia infrastrukturalna. Niestety nie jestem w stanie powiedzieć, kiedy to się stanie. Już w tej chwili widzieliśmy road mapy na temat powstawania nowych subnetworków, wraz z wejściem Fili, czyli tego upgrade'u i oficjalnym startem, jakby, BitTensora na Polkadot. Już ma się pojawić pierwszy subnet.
To będzie na razie subnet, który będzie polegał troszeczkę na czymś innym. Będzie jakby rozdział tego subnetu minerskiego i subnetu rejestracyjnego. On będzie dostawał inny incentive, ale tam jest troszeczkę danych. Myślę, że w tej chwili nie będę zarzucał słuchaczy tymi danymi. Natomiast docelowo to jest tak, że w założeniu każdy będzie mógł sobie ten fragment sieci rzucić dostosować do swoich potrzeb. Jest ileś scenariuszy korzystania z BitTensora. Jednym z nich jest właśnie wystawienie czy serwowanie własnych modeli trenowanych na własnych data setach i tak dalej, i tak dalej, na własne potrzeby. Z drugiej strony jest korzystanie z wytrenowanej sieci i z rozwiązań, które będą dostarczane jakby przez BitTensor w ogólnym konsensusie. Jest kilka case'ów. Wspomniałeś Fini.
Przejdźmy do tego Finaya. Finaya, czyli upgrade, gdy startuje oficjalnie jako Parachain na Polkadot. Co takiego fajnego przynosi nam Fini, czego dzisiaj BitTensor nie ma i kiedy to ma nastąpić? Kwestia, to tak, będzie kilka nowych rzeczy na pewno. Pierwsza rzecz to jest taka, że zmieni się sposób jakby dopuszczania walidatorów do ogólnego obiegu. W tej chwili, żeby być walidatorem, wystarczy mieć zarejestrowany hotkey, czyli zarejestrowanego neuronu i posiadanie do 1024 TAO, który się stake'uje i wtedy ten walidator jakby nie ulega mechanizmu percha, czyli nie podlega ocenie w tych 10% dolnych i nie może wylecieć z sieci. To się zmieni. Tylko 100 największych walidatorów będzie w stanie zarabiać incentyw i będzie odporna na ten perch.
Także znowu wchodzi kolejny element kompetatywny, bo gdzieś na dole będzie kotłować się o wejście lub otrzymanie walidatorów. Natomiast ten mechanizm ma zapewnić to, że walidatorzy będą bardziej związani z tworzeniem rzeczy wokół ekosystemu. To mają być podmioty, które będą tworzyć aplikacje, interfejsy, gdzieś będą zaangażowane w bit tensor od strony deweloperskiej, społecznościowej i tak dalej, a ma wyeliminować tę stronę taką po prostu, jakby kupuje bardzo dużo TAO i stake'uje, tam jest jakaś rzecz. Drugą rzeczą to jest powstanie subnetu. W tej chwili maksymalna ilość neuronów w sieci to jest 4096, czyli tylko tyle maksymalnie tych neuronów w danym momencie może być, no i walka jest zawsze o tych 10% do niego.
Sytuacja się zmieni, ponieważ będzie 16 tysięcy w tej chwili hotkeyów do zarejestrowania. Ten podział, wypłat będzie troszeczkę inny, on jeszcze nie został do końca, jakby przedstawiony był koncept, o którym w społeczności się rozmawiało, że te 4000 najlepszych minerów będzie zrobić, bo głównie reszta to jest taki przedsionek troszeczkę. Czyli znowu w tym, jest jakieś, są jakieś wypłaty za branie udziału w tym subnete w pozostałych, natomiast będą niższe. Podział w tej chwili jest taki, że 50% całego incentive idzie dla walidatorów i 50% dla minerów. I teraz, jeżeli jeszcze powstanie drugi subnet do minerów, no to większość tego incentive będą dostawali minerzystek.
Pierwszy z tych 4000, a cała reszta to jest takie powiedzmy przedszkola, który dopiero musi się sprawdzić i jeżeli te modele będą optymalne, a przynajmniej takie za takie będą uznawane przez walidatorów, to będą mogły znowu powalczyć w wejściu do tej dużej ligi, do tych 4000. Także jest troszeczkę zmian, zmiana, jeszcze jest jedna fundamentalna, której zapomniałem powiedzieć, będzie możliwość delegowania, w obecnej chwili tylko walidatorzy, którzy posiadają 1024 TAU, mogą tak naprawdę stajkować.
I zmieni się to w ten sposób, że wejdzie taki znany ogólnie, na przykład dzielisz z kosmosu i z innych miejsc, mechanizm delegowania, czyli ktoś, kto ma 5-10 TAU, będzie mógł sobie wybrać walidatora, któremu odpowiada konceptualnie, na przykład jest to walidator, który akurat będzie robił fajną aplikację, który będzie korzystać z BitTensor albo coś innego wokół projektu i delegować tam swoje środki. Podział zarobków jest taki, że ta osoba delegująca będzie oddawać 18% swojej zarobków walidatorowi. No ale to też jest fajne, dlatego że w końcu osoby, które są mniejszymi stajkowalerami, TAU będą mogły zarabiać również nie prowadząc miningu, jako takiego, lub też nie stawiając walidatora.
Czyli jaki byłby, twoim zdaniem przewidywany taki ROID dla tego, który stajkuje, który deleguje? To jest bardzo trudne do określenia w tej chwili, obecnie, dlatego że ja nie do końca znam podział tej incentiv w nowym, w nowym, pofinie. Znam go teraz, w tej chwili 1000 TAU jakby na walidatorze przynosi około 1,18 TAU dziennie. Także trzeba by było to po prostu kalkulować, aczkolwiek też nie jestem do końca przekonany jak się zmieni incentiv w momencie właśnie powstania jakby tego mechanizmu delegacji. Ok, a jeszcze takie pytanie, Grzybomir, bo mówisz, że jesteś i walidatorem, i minerem. Nie ma tutaj zagrożenia, że walidatorzy będą się jakoś zmawiać celem wyboru konkretnych minerów? Nie, nie, dlatego że my nie mamy dostępu do mechanizmu walidacji.
Znaczy kod jest opłynący, można sobie zdaję. Ale ogólnie walidatorze ustalają jakby swoje oceny na podstawie algorytmu, do którego my właściwie nie mamy dostępu. Więc na pewno był w przeszłości taki moment, gdzie je nie znamy akurat osoby czy też osób, były w stanie wytrenować taki model, który nie wnosił bardzo dużej wartości do sieci, ale był super dopasowany do jakby algorytmu walidacji. No i przez kilka tygodni był z tym problem, bo to trochę zakwiało równowagę sieci. I w momencie, kiedy społeczność się zorientowała, że dzieje się coś nie tak, to zespół zrobił dochodzenie, sprawdzili na czym to polega, na czym polega program, go zalepili.
I to jest też fajne, że oni faktycznie działają na rzecz tego faktycznego rozproszenia i zdecydowalizowania, a nie faworyzowania kogoś, kto potrafi w sprytny sposób obejść jakby mechanizmy walidacji. Na szczęście się to udało i faktycznie zauważyliśmy bardzo ładny taki przepływ. Tam Hediana się bardzo wypłaszczyła. Ok, super. No to wygląda, że sporo się jeszcze tutaj na roadmap'ie zadzieje, bo Finnej wchodzi 13 lutego. Czy po Finnej jeszcze z takich rzeczy, które warto byłoby wspomnieć, na które wyczekujesz, by być może których sieć najbardziej potrzebuje? Takie roadmap'y stricte z milestone'ami oprócz Finney my nie mamy. My mamy ogólny koncept tego, co się będzie działo dalej.
Wydaje mi się, że takim dużym, dużym elementem mogłoby być, nie wiem kiedy, udostępnienie takiego interfejsu, który pozwoli ludziom zacząć się tym bawić. Jak to Chad Chbity miało. I teraz myślę, że coś takiego gdzieś tam się gotuje. Natomiast ja niestety nie wiem kiedy i jak, nie mam takiej informacji, ale to da większą rozpoznawalność moim zdaniem. Ktoś będzie mógł po prostu wejść, wpisać sobie frazę, zobaczyć jak się już odpowiada, w jaki sposób konstruuje logikę i tak dalej. No to jest jeszcze przed nami. Mam nadzieję, że to się stanie w miarę szybko, bo to na pewno pozwoli się rozpędzić.
A na tyle co dzisiaj śledzisz rozwój tej sieci, czy dzisiaj sieć byłaby już gotowa na to, żeby na przykład udzielać podobnych odpowiedzi a la Chad Chbity, czy u Jarno Dyriety? Na pewno nie tak szybko. To jest bardzo młody projekt jeszcze, bo on ma zaledwie rok z hakiem. Jest możliwość odpowiadania odpowiedniego neuronu, na przykład, o jakąś tam sekwencję. Przy czym to jest znowu odpowiadanie tylko jednego neuronu jakoś sekwencję. Jest też taki playground, który umożliwia odpowiadania sieci o pewne rzeczy, a on działa na razie dosyć wolno. Wiem, że są wolniejsze niż Chad Chbity. Natomiast ja myślę, że to jest kwestia pewnej optymalizacji i faktycznie wystartowania takiego interfejsu.
To jest cały czas, przepraszam za słowo, krót, takie nieokrzesane, więc mało osób nie technicznych jest w stanie się tym pobawić. Myślę, że w momencie, kiedy będzie plan wystawić taki interfejs dla zwykłego użytkownika, który będzie mógł sobie po prostu kliknąć, wpisać, zobaczyć, to będzie dużo bardziej optymalnie zrobione. W tej chwili, tak jak mówię, to jeszcze nie było takiego elementu, który stwarzałby konieczność zoptimalizowania tego w ten sposób, żeby to było super szybkie, czy konkurowało z Chad Chbity. Natomiast ja myślę, że ma to być dużo bardziej uniwersalne niż Chad Chbity.
Ja na pewno też aplikacji wypatruję i też w szczególności kolejnych tych podsieci, gdzie być może będziemy się zajmować i dźwiękiem, i obrazem, i to wszystko zostanie połączone w jakąś sieć, która będzie służyła bardziej kompleksowe usługi. Ale do tego jeszcze chwila. Natomiast być może tutaj część widzów się zainteresowała projektem, widziałem, że poprzedni film też wzbudził zainteresowanie. To co taki przeciętny Kowalski mógłby zrobić dzisiaj, jak chciałby coś dalej podzielać z bit sensorem? Czy łatwo zostać miner, czy łatwo zostać validatorem, a jak nie, to co innego mogę zrobić, jak mnie ten projekt zainteresował? Ten projekt ma niestety bardzo wysoki próg wejścia. To jest niestety i stety.
W moim mniejaniu akurat jest to stety, dlatego że jeżeli ktoś chce się zaangażować w faktycznie serwowanie na kundali, musi zdobyć jakąś wiedzę z obszaru, żeby optymalizować modele, żeby te modele, które serwuje, czyli ten czas, który również zabiera po rejestracji sieci, był efektywny. Więc sam próg wejścia jest bardzo wysoki, dlatego że infrastruktura nie wystarczy.
Czyli ktoś z dużimi pieniędzmi, kto ma infrastrukturę, stargo było na wypożyczenie sobie, albo kupienie takiej infrastruktury, bez tej wiedzy z zakresu fine tuningu modeli z konkretnymi data setami, nie działa za dużo, dlatego że jeżeli postawi sobie model, który akurat nie jest przez sieć uznawany za optymalny, to wyleci po 14 godzinach i straci czas na rejestrację, na ten cały proof of work, który tam wchodzi. To będzie absolutnie stracony efekt. Z założenia w tej chwili wiem, że w społeczności funkcjonują ludzie, którzy np. takie modele zajmują się tylko i wyłącznie tworzeniem lub też tuningiem modeli pod konkretne założenia BitTensor, więc teoretycznie taki model można sobie kupić. One są potwornie drogie.
Ja nie kupowałem takiego modelu, więc akurat nie orientuję się, za ile można byłoby taki model dostać. Natomiast jest jakaś możliwość, jest jakiś taki wiggle room na to, żeby w tę sieć wejść. Oczywiście drugim aspektem biegunem jest walidator. W tej chwili znowu próg wejścia jest bardzo wysoki, bo 1024 Tao'o kosztuje całkiem sporo pieniędzy, ale od wejścia finii ktoś, kto ma 1. 5 Tao'o będzie w stanie po prostu delegować i zarabiać sobie również w obrębie sieci, nie potrzebując ani wiedzy z obszaru machine learningu, ani dużego kapitału na to, żeby faktycznie brać w tym udział. Ok, czyli posiadając Tao'o i delegując je do walidatora będziemy mogli gdzieś tam pasywnie uczestniczyć w rozwoju tej sieci.
Pytanie jest, czy to też uwiarygadnia jakoś bardziej walidatorów? Czy ja delegując na walidatora on zyskuje dzięki temu jakąś większą moc? Jak to będzie działo? To znaczy tak, tak w pewien sposób tak, dlatego że jeżeli mamy znowu konkurencyjność w postaci 100 największych walidatorów jest w stanie brać udział, zarabiać insekcji z tej walidacji, to walidatorzy powinni zabiegać również o społeczność, o ich wosy, po to żeby się w tym set celu walidacji utrzymać. Bo wiadomo, że jakby kapitał wyjściowy, który ktoś może nawet wyprodukować w momencie kiedy community się rozrośnie i jakby ten kapitał wyjściowy pojedynczych jednostki będzie prawdopodobnie zaniedbywany w porówność z kolektywnym kapitałem społeczności.
Więc wtedy faktycznie myślę, że walidatorzy, którzy będą oferowali największą wartość, budowali aplikacje, dostarczali jakieś ciekawe rzeczy i tak dalej oni będą stawać jakby większość tego Tao'o z stakingu. Przynajmniej mam taką nadzieję. Dla mnie projekt jest bardzo ciekawy. Tutaj na konferencji z kilkoma osobami rozmawiałem i o sztucznej inteligencji, i o bit tensorze, i o Singularity Net. Ogólnie wydaje mi się, że sztuczna inteligencja to jest trend nie tymczasowy. Mogę być w błędzie, ale wydaje mi się, że jest trend nie tymczasowy i wolę mówić w błędzie, ale wydaje mi się, że skutki również takie negatywne obcowania ze sztuczną inteligencją będziemy odczuwać coraz częściej.
Dla mnie bit tensor czy Singularity Net czy inne projekty, które coś tutaj w obcwarcie obwodczyń próbują zrobić to jest trochę taka możliwość ucieczki przed tym, że jedynie duże korporacje, duże instytucje będą tym wszystkim kierować. I my mamy szansę mieć na to wszystko wpływ. Dlatego mnie tak ten projekt zajarał, a jego niszowość, jest taki posmak, że wchodzi się w rabbit hole i to jest jeszcze wszystko szurowe. To jara mnie. Ja mam duszę inżyniera, to jest też Teraink Gita, kiedy my wchodziliśmy w święty interesować. Było bardzo dużo wiedzy i różnych rzeczy do odkrycia. Też mogę śmiało przyznać, że przez pewien czas to było bardzo dużo takiej metody prób i błędów.
Mian parametrów, korzystania z różnych rzeczy, sprawdzania co działa, co nie działa. Ja strasznie lubię taką pracę, zabawę, bo ona jest angażująca i fascynująca. Obserwowanie tego w jaki sposób zmienia się oceny na sieci danego modelu, danego subsetu, to w jaki sposób nasz trening w danym kontekście przyniósł jakie efekty itd. To jest świetne. Myślę też, że bitensor, jeżeli się w niego faktycznie wejdzie, bo on z zewnątrz może wyglądać jak taka puszka Pandory faktycznie, nie wiadomo co w środku jest. My natomiast, jakby troszeczkę funkcjonując od wewnątrz, widzimy, że te mechanizmy faktycznie działają, to nie jest wydmuszka.
To jest coś co funkcjonuje, działa, to nie jest jakiś taki projekt, który udaje coś czym nie jest, więc tutaj też nabiera się trochę więcej pewności kiedy się zajrzy od kuchni. I to jest świetne. Jeżeli chodzi o AI, myślę, że trend jest bardzo silny. Tak jak rozmawialiśmy na początku, te rzeczy, w ogóle AI już nas towarzyszy, otacza nas, my tego tak do końca nie odczuwamy, bo to jest implementowane bardzo, bardzo taki intuicyjny sposób, my zaczynamy korzystać z tych rozwiązań. I to wszystko za tym stoi potężny mechanizm sztucznej inteligencji, tak samo w to co dostajemy reklamy, jakieś targetowanie, uczyliśmy te mechanizmy przy pomocy CAPTCH, przy pomocy wysyłania próbek tekstów i tak dalej.
W większości osób nawet nie znaje sobie sprawy z tego, że brała w tym udział od bardzo, bardzo długiego czasu. Teraz AI zostanie się jednym z większych aspektów w życiu człowieka, ponieważ niektóre rzeczy, a szczególnie takie zadaniowe, robi od człowieka dużo szybciej i w takim szerszym kontekście dużo lepiej. Nie mówię, że wszystko, ale jednak tak. Więc w takim moim odczuciu jesteśmy przed wielkim przełomem technologicznym, albo właściwie już bierzemy w nim udział. Jest to moim zdaniem trzecie co do wielkości przełomu technologiczny, w ogóle przełom w świecie człowieka, gdzie pierwszym było zmiana funkcjonowania skroczowniczego i hunters' gatherers na osadnictwo, rozwój handlu, sztuki, społeczeństw.
Drugi był rewolucją przemysłową i wejściem prądu, elektryczności, a potem elektroniki, gdzie tak naprawdę postęp przyspieszył właśnie wykładniczo. I mamy w tej chwili ten etap AI, który jest z jednej strony nieprawdopodobnie fascynujący, trochę straszny, bo my nie wiemy czego tak naprawdę będziemy mogli finalnie oczekiwać i w jaki sposób to wpłynie na społeczeństwo. Ja uważam, że zmiany będą bardzo duże, natomiast ostatecznie jakie będą efekty tej zmiany, to myślę, że przyjdzie nam zobaczyć w całkiem krótkim czasie, nie tak jak ludzie sobie spodziewają, że to jest odległa przyszłość. Myślę, że większość z nas jeszcze doczeka tego społeczeństwa, gdzie AI będzie bardzo istotnym filarem.
Dlatego myślę, że projekt zdecentralizowany, który jest non-custodial, nie ma podmiotu, który tak naprawdę rzeźbi go pod siebie, tylko ma tę zdecentralizowaną strukturę, w której społeczność może wziąć udział, może tak naprawdę trochę ciosać tę sieć w bardzo różny sposób. Jest fascynujący i jest jednym z tych elementów, takim narzędzią, który być może da nam chociaż troszeczkę, taki kawałek tego ciasta. Może nie jest duży, ale to jest kawałek ciasta i jest w tym jakaś nadzieja. Ja się w 100% zgadzam i tutaj zgodnie z zasadą, if you can beat them, join them, to też staram się w jakiś tam sposób w tym wszystkim partycypować. Czeka nas, myślę, że sporo ciekawych przemian.
Moim gościem dzisiaj był Grzybomir, który chyba w projekcie Beat Tensor to byłeś jednym z pierwszych w Polsce. Czuć ewidentnie, że masz bardzo dużo wiedzy, takiej głębokiej i też praktycznej, bo jesteś i minerem, i walidatorem, więc mi się tak naprawdę miałem tutaj niesamowity zaszczyt z tobą pogadać. Natomiast jeżeli wy chcielibyście coś jeszcze więcej wiedzieć, to pytajcie w komentarzach, ewentualnie być może będzie szansa na jakieś dogrywki z dodatkowymi jakimiś pytaniami. Rozwojowa sytuacja w Beat Tensor jest dosyć mocna ostatnimi tygodniami, więc materiałów myślę, że nie zabraknie. Jeżeli was to zainteresowało, dajcie znać. Myślę też, że my mamy co prawda tylko kanał polskiej społeczności na Discordzie.
Staramy się tam właśnie jako jedni z pierwszych w projekcie udzielać odpowiedzi na pytania osób nowych, które są zainteresowane w ogóle siecią, miningiem, stakingiem, samym mechanizmem, zakładaniem uletów, w ogóle jakimkolwiek udziałem Beat Tensor. Także na pewno zapraszam na polski kanał na Discordzie Beat Tensor, bo będziemy starali się po prostu pomóc jako doświadczeni, użytkownicy młodym fascynatom rozwiązywać problemy gdzieś wejścia i ubrania obudziału w tym projekcie i w tej zabawie. Super. Wielkie dzięki Grzybomir za pogaduchę. Dziękuję, to było super. My jesteśmy w kontakcie. Cześć. Dzięki. .