TRANSKRYPCJA VIDEO
Zapraszamy do fascynującej rozmowy o sztucznej inteligencji, jej definicji i kontrowersjach z nią związanych. Czy modele językowe, takie jak GPT, są naprawdę inteligentne, czy raczej są to "sztuczne pseudo inteligencje"? Autor podkreśla, że nie ma jednej definicji inteligencji i zastanawia się, czy maszyny są w stanie blefować czy rozumieć. Przytacza przykład filmu "Zelig" Woody'ego Allena, gdzie główny bohater udaje inteligentną osobę.
W filmie poruszamy także temat prawa i roli inteligencji w jego zrozumieniu. Czy prawnicy musieli zapamiętywać wszystkie sytuacje prawne, czy istnieje uniwersalna zasada, którą można zastosować w różnych sytuacjach? Czy sztuczna inteligencja może przewidzieć następne słowo, jak to robią "stochastyczne papugi" opisane przez jednego z polskich naukowców pracujących w OpenAI?
Film zawiera także analizę testu Turinga i gry w szachy. Czy wygrana maszyny oznacza inteligencję, czy raczej skuteczne obliczenia? Czy kluczem do rozpoznania prawdziwej inteligencji jest znalezienie pytania, na które nikt jeszcze nie zna odpowiedzi?
Na koniec rozmawiamy o wpływie sztucznej inteligencji na gospodarkę i inwestycje. Czy Bitcoin jest narzędziem spekulacyjnym, a inwestowanie w sztuczną inteligencję jest formą spekulacji? Czy Bitcoin będzie musiał konkurować o kapitał, który został mu zabrany przez inwestorów AI?
Zapraszamy do komentowania, dawania lapek w górę, udostępniania i krytykowania. Do zobaczenia w kolejnych odcinkach!
Bum, bum, bum, bum! Bam, bam, bam, bam! Moi drodzy, dzisiaj będzie o świnkach morskich, dlatego że świnka morska to ani świnka, ani morska. No i Łukasz, od razu przychodzę bez gry wstępnej. Ty byłeś kiedyś fanem chyba świnek morskich, zgadza się? Nie. Albo chomików. Chomików, tak. Jedyne zwierzęta, jakie miałem małe, to chomiki. No właśnie, a powiedziałem o tych świnkach morskich, no bo chcemy rozmawiać o sztucznej inteligencji. No i gdzieś tam niektórzy mówią, że sztuczna inteligencja nie jest ani sztuczna, ani nie jest inteligencją. Jaki jest Twój wstępny pogląd na ten temat? Ja osobiście nie przepadam za nazywaniem tych modeli językowych sztuczną inteligencją. Rozumiem dlaczego tak jest, to jest pewna zaszłość i jakieś powszechne patrzenie na ten problem. Jeśli w ogóle to nie tyle sztuczna inteligencja, co najwyżej sztuczna pseudo inteligencja. Sztuczna no bo elektroniczna, a pseudo bo. . .
bo nie jest to inteligencja. Myślę, że o tym porozmawiamy, dlaczego tak jest. Natomiast zaznaczę jedną rzecz, że nie ma definicji inteligencji. Nie ma czegoś takiego, że inteligencja to jest to i to. Nie do końca tak jest. My możemy powiedzieć, czym się inteligencja objawia. Tak możemy sobie mówić. Na przykład jedni mówią, że inteligencja to jest wtedy, gdy ktoś gra w szachy. To jest inteligentne, nie? Ale z młodości pamiętam definicję inteligencji, którymi uczono, że to jest zdolność dopasowywania się do zmieniających się okoliczności. Tak, czyli adaptacja plus znajdowanie reguł i powiązań, analogii byśmy powiedzieli może. I to jest też jedna z dobrych nazw i definicji. Natomiast czy można udawać osobę inteligentną? I tutaj. . . Polecam rewelacyjny film Woody'ego Allena z 80.
któregoś roku, Zellig, film, który opowiada o takim człowieku, który miał taką przypadłość, że upadabniał się do osób w towarzystwie, których przebywał. Jeżeli przebywał w gronie lekarzy, to stawał się lekarzem. Jak przebywał w gronie muzyków, to stawał się muzykiem, a jak w gronie robotników, to stawał się robotnikiem. Po prostu taki kameleon, który przybiera pozory, to jest kluczowe słowo, pozór tego, że jest kimś, podczas gdy tak naprawdę tym kimś nie był. No i właśnie, jak możemy odróżnić, czy ktoś gra dobrze w szachy, bo jest inteligentny, czy dlatego, że na przykład jest w stanie błyskawicznie przeanalizować wszystkie możliwości. i wybrać tą, która daje mu najwyższe prawdopodobieństwo zwycięstwa. Wtedy będziemy mieli, no właśnie, kogoś, kto gra rewelacyjnie w szachy, ale wcale nie jest inteligentny. Poczekaj, no ale to skąd się bierzemy? Spróbujmy zdefiniować przynajmniej na potrzeby tego programu.
Czym według Ciebie jest inteligencja? No bo, a jeszcze się zapytam Cię później o intuicję. Swoją drogą. . . Nie mamy takiego pojęcia jak sztuczna intuicja. Nie, nie ma. Przecież intuicja tak naprawdę jest inteligentnym procesem, tylko nieuświadomionym. Ale to czym jest ta inteligencja? No bo to właśnie powiedz, a ja później. . . Spotkałem się właśnie z ciekawą definicją, która mówi, że inteligencja to jest zdolność kompresji. I teraz tłumaczę o co chodzi. Wyobraź sobie, że mamy wielką książkę, naprawdę taka książka istnieje, w której mamy opisane problemy logiczne. Całą matematykę zajmującą się logiką. Tam te wszystkie równania i tak dalej. I teraz jednym sposobem nauczenia się tej logiki jest zapamiętanie całej książki. Będziesz znać wszystkie zadania, wszystkie odpowiedzi, wiesz wszystko.
Drugim sposobem jest nauczenie się tych dziesięciu operacji logicznych i umiejętności zastosowania ich w różnych sytuacjach. kompresujesz wiedzę z książki kilkusetstronicowej i to tam może nawet ponad tysiąc do pięciu stron. I dodajesz ten element umiejętności zastosowania tych reguł, które są naprawdę proste. No ale to nie jest kompresja, tylko to jest rozpoznanie pewnych reguł i rozumiem, że przez to, że. . . Kompresowałeś tysiąc stron do dziesięciu. Wiesz, że historia prawa w takim razie zna też takie zjawisko? bo gdybyśmy się cofnęli teraz do czasów rzymskich. . . Tam prawo. . . A to chcesz powiedzieć, że prawnicy są inteligentni? Na pewno ci, którzy pracują z nami, ale kiedyś w prawie rzymskim to było tak, że przepisy prawa były bardzo, bardzo napuchnięte, bo trzeba było opisać każdą sytuację.
Czyli, że co zrobić, gdy rolnik na polu potknie się o kamień i motyka mu zleci i zabije tam małe dziecko. I tych sytuacji po prostu opisywano bardzo, bardzo dużo i to oczywiście nie miało sensu. prawnicy z czasów rzymskich po prostu musieli to wszystko mieć gdzieś w głowie. I dopiero po jakimś czasie, chyba ze czasów Napoleona tak naprawdę, zaczęły się pojawiać kodeksy, czyli jak gdyby próba wyciągnięcia tej wspólnej myśli. I właśnie dzisiaj mamy kodeksy, podejście kodeksowe, przynajmniej w tej części kontynentu, na której istniejemy. Coś podobnego jak właśnie z tą logiką, o której powiedziałeś. Czyli rozumiem, że kiedy mówisz o kompresji, to mówisz o rozpoznaniu pewnych powszechnych reguł. Analogi.
Na przykład na czym polegała inteligencja Newtona? Inteligencja Newtona polegała na tym, że znalazł pewną analogię i też swego rodzaju kompresję, bo on nagle odkrył w swojej głowie, że to jak jabłko spada na ziemię, to jest dokładnie, czy umiał odnieść te zasady, te prawa, które determinują opadanie jabłka na ziemię. i przenieść na ruch planet na orbitach. Czyli stworzył pewną analogię pomiędzy rzeczami, które zupełnie analogiczne dla współczesnych mu ludzi nie były. Dla nas może już teraz są, właśnie dzięki Newtonowi. Ale on to jakby odkrył, on odnalazł tę analogię. No i teraz idąc już troszeczkę głębiej, bo przypomnę poprzedni kwadransie z Kangą. jeżeli nie oglądaliście, zachęcamy do tego, żebyście obejrzeli.
Mówiliśmy o tym, że zabrakło nam czasu, ale o tym, że jak rozpoznać, czy na przykład czat GPT jest inteligentny, to jest może złe słowo, ale potrafimy zrobić coś innego. No ale właśnie, bo mamy dwie kwestie. Jedna kwestia to, jak rozpoznać, czy rozmawiamy ze sztuczną inteligencją. I druga kwestia, jak rozpoznać, czy my jesteśmy w stanie dzisiaj w ogóle dociec, czy faktycznie ta sztuczna inteligencja, z którą rozmawiamy, niech to będzie właśnie czat GPT, czy ona jest inteligentna, czy naprawdę rozumie, tylko tutaj znowuż trzeba odpowiedzieć sobie na pytanie, co oznacza rozumieć. To jest bardzo ciekawe, bo jakby przedstawmy, jaka jest opozycja, bo jedni mówią, czat GPT to inteligencja, on rozumie i tworzy. Tak niektórzy nawet mówią. A po drugiej stronie mamy ludzi, którzy mówią, że czat GPT to jest po prostu bardzo szybkie liczydło.
Jak to jeden z polskich naukowców, który teraz pracuje w OpenAI, w ogóle zadziwiająco dużo Polaków pracuje w OpenAI. To taka ciekawostka. Ale który pracuje w OpenAI, zanim tam pracował, to mówił o. . . czatach tych LLM, czyli tych dużych modelach językowych, że to są stochastyczne papugi. Straszne słowo, ale generalnie chodzi o to, że tam nie ma żadnej inteligencji, to jest tylko przewidywanie, jakie, upraszczam, jakie słowo, jeżeli mieliśmy takie słowa wcześniej, to jakie słowo następne powinno się pojawić. I on to tylko na zasadzie rachunku prawdopodobieństwa statystyki wylicza, czyli on nie rozumie, i to jest bardzo istotne, nie rozumie tematu, o którym rozmawiasz, umie jedynie dobrze dobrać słowa. No i okazuje się, że ten dobór słów bardzo, bardzo często jest trafny. Potrafi nas nieźle zaskoczyć, to prawda. Nieźle zaskoczyć. Ja pamiętam taki eksperyment, zresztą Ty też go przeprowadzałeś.
Kiedyś, jak w czacie GPT pisało się, hej, napisz mi, jakie są atrakcje turystyczne w Gdańsku. No to on zaczynał pisać, pisać, pisać. W pewnym momencie pisał oczywiście, że Kościół Mariacki, no bo to, dla tych, którzy nie wiedzą. . . największa ceglana świątynia na świecie, to kościół Mariacki w Gdańsku, po czym pisał o dzwonie Zygmunta. I tak sobie myślę, kurczę, co tam robi? Czy o ołtarzu w kościele Mariackim, ale w Krakowie, nie? Tak, co tam robi ten dzwon Zygmunta? I dopiero później właśnie zrozumiałem, że on podąża słowo za słowem. I skoro napisał o kościele Mariackim, to już zapomniał o tym, że pisał o Gdańsku, a kościół Mariacki najbardziej. . . Jednak chyba bardziej rozpoznawalne w Polsce to ten krakowski. Krakowski, tak. A przynajmniej dla czata GPT, no a wiadomo, że jak Kraków, no to dzwon Zygmunta.
No i teraz przechodząc do tematu rozumienia, bo dlaczego w ogóle rozmawiamy o sztucznej inteligencji? Ponieważ pojawia się coraz więcej takich informacji o tym, jaki będzie kurs Bitcoina, jak czat GPT prognozuje, jak on. . . tradeuje, ile by zarobił, ile. . . Właśnie ja stoję niestety, może nie niestety, ale ja stoję po tej stronie barykady, która mówi, no nie, ta sztuczna inteligencja to jest po prostu bardzo szybkie liczydło z dostępem do dużej ilości informacji. Nie ma tam inteligencji, nie ma tam zrozumienia, chociaż faktycznie perfekcyjnie potrafi to udawać. Teraz bardzo długo się zastanawiałem, w jaki sposób można. . . udowodnić, że tak właśnie jest.
No i się okazało, że ja nie wymyśliłem, ale grupa naukowców, chyba robiąca pod grantem Apple'a, przeprowadziła taką właśnie bardzo ciekawą pracę, mam nadzieję, że się uda powiększyć, która, polski tytuł byłby Rozumienie ograniczeń matematycznego rozumienia w dużych modelach językowych. Czyli oni się zajęli problemem. . . Jak sprawdzić, czy to, że czat GPT 4. 0 ma ponad 95% skuteczność w zdawaniu testów matematycznych dla szkolnych, tych testów matematycznych w Stanach Zjednoczonych, to jest mocno tam zklasyfikowane, ustandaryzowane są testy i takie. . . pytania i uczniowie odpowiadają i na podstawie tego zdobywają jakąś tam punktację, powiedzmy coś w stylu polskiej matury, tylko to jest chyba troszeczkę na niższym poziomie. I oni mówią, no kurczę, ma 95% skuteczności. To on jest po prostu na poziomie tam całkiem wysokim. On to potrafi robić doskonale. Naprawdę on rozwiązuje problemy matematyczne.
No i oni mówią, kurczę, sprawdźmy to. Sprawdźmy to i zastosowali bardzo, dla mnie to było mega odkrywcze, nie ukrywam, bardzo ciekawe podejście. Oni, OK, mamy zadanie i teraz proszę bardzo, przykład takiego zadania, takiego matematycznego jest, tutaj zaraz sobie znajdę, mam to zadanie, przeczytam, przepraszam, tłumaczę tak po polsku, na żywo, więc. . . Oliver dostał 44 kiwi w piątek. Potem on dostał 58 kiwi w sobotę. W niedzielę podniósł, czy zebrał dwa razy więcej kiwi niż w piątek. Ile kiwi ma Oliver teraz? No i teraz oni mówią OK. Czat GPT udziela doskonałej odpowiedzi. Po prostu bomba. Ale zróbmy test. A co będzie, jeżeli wprowadzimy nieistotne, z punktu widzenia zadania, zmiany? I oni, to było na wcześniejszym zadaniu, tu już wziąłem takie bardziej zaawansowane, ale oni powiedzieli, OK, zmieńmy imię z Oliver na Klaus. Albo. . . Dodajmy na przykład, zmieńmy liczbę, zmieńmy te cyfry na inne.
I nagle się okazało, że zmiana, no to było akurat w innym zadaniu, gdzie było zadanie, kiedy Sofia patrzyła na swojego bratanka, ona dawała mu różne zabawki, no i tam znowu liczenie i tak dalej. I oni mówią, okej, to zmieńmy, że nie Sofia, a Nina. Albo nie bratanka, a wujka. I pozmieniali te rzeczy, czyli nieistotne z punktu widzenia zadania rzeczy. I nagle się okazało, że czat GPT nie ma już 95% skuteczności, tylko 90%. Ale z czego to wynika? To mnie interesuje. Bo karty do zadań są dostępne w internecie i one były użyte do nauki modelu językowego. I on się nauczył tych konkretnych kart. On nie wiedział, że Anna to jest imię, jak analizował zadanie. On analizował słowa. Ale ktoś powie, no 5% czy tam 10% spadła skuteczność, nic wielkiego.
Ale prawdziwe cuda zaczęły się dziać, gdy powiedziałem, OK, to dodajmy nieistotną informację. I wracam do tych kiwi. Oliver zbiera 44 kiwi w piątek, 58 w sobotę, a w niedzielę dwa razy więcej niż w piątek. Ile ma kiwi na końcu? Ale uwaga, dodana jest informacja, że w niedzielę zebrał dwa razy więcej kiwi niż w piątek, ale pięć z nich było trochę mniejszych niż przeciętnie. Nieistotna informacja, tak? Dla osoby rozwiązującej to zadanie, dla każdego człowieka, ona nie powoduje zmiany wyniku. Czad GPT poległ. Poległ i to sromotnie, a jeszcze gorzej zachował się w sytuacji, gdy podawano informację jeszcze bardziej taką zaburzającą, można by powiedzieć, cykl. który przybliżał treść zadania do innego zupełnie zadania. Chodziło o powiedzenie, że John poszedł na zakupy i kupił kole, która dzisiaj kosztowała 10 zł, i kupił chleb, który dzisiejsza cena to jest 8 zł.
Ile zapłacił w sklepie, jeśli inflacja od zeszłego roku była 10%? No i w tym momencie czar GPT zawsze wyliczał inflację. Zawsze uwzględniał tą inflację. Dlaczego? Ponieważ jak on dostawał zadania, on nie rozumie tego, co robi. On statystycznie poklasyfikował sobie, bardzo upraszczam, wiem o tym, ale poklasyfikował sobie rzeczy i mówi, aha, czyli jeżeli jest inflacja, jeżeli jest to, to trzeba to uwzględnić, uwzględnia się tak, proszę bardzo. I mamy wynik. Innym ciekawym przykładem. To opowiadał pan Aleksander Mądry. Kim jest Aleksander Mądry? Pan Aleksander Mądry, ja tu posłużę się ściągawką, bo nie chcę popełnić błędu. Pan Aleksander Mądry to jest profesor informatyki w MIT. Brawo, naprawdę szatoba. I on pracuje od całkiem niedawna, jest szefem działu gotowości w OpenAI, która tworzy czata GPT. Zajmuje się przygotowaniem reakcji na potencjalne. . . Niechciane skutki rozwoju sztucznej inteligencji.
Jest dyrektorem Centrum Wdrożenia Uczenia Maszynowego w MIT, współprzewodniczącym MIT AI Policy Forum, jednej z najważniejszych platform debaty o AI. Co ciekawe, pan profesor Aleksander, którego szanuję, cenię, naprawdę polecam oglądać wywiady z nim, bo jest to jeden z tych Polaków, z których możemy być mega dumni. to on kiedyś, zanim zaczął pracować w OpenAI, to mówił o tym, że właśnie te wszystkie LLM-y, on używa słowa stochastyczna papuga właśnie, od niego pożyczyłem to sformułowanie, zmienił zdanie jak zaczął pracować w OpenAI. Czy punkt widzenia zmienia się od miejsca siedzenia, to może jeszcze o tym porozmawiamy, dlaczego zmienił to zdanie, ale on mówi, że był na premierze, czy widział. . . czata GPT-4, zanim był on opubliczniony.
Opowiada taką historię, że go koledzy zaprosili, dostali pozwolenie, żeby mu pokazać, a oni chcieli mu go pokazać, jak sam opowiada, bo oczekiwali wielkiego wow, ale super, a on mówi, że on się zachował jak prawdziwy naukowiec, czyli żaden naukowiec nie powie wow na coś, czego sam nie wymyślił. Więc chwilkę się zastanowił i po kilku próbach znalazł pytanie, które rozwalało tego czata GPT, czyli pokazywało, że on nie działa. On posłużył się klasycznym problemem, to się nazywa Monty Hall. Monty Hall problem to jest problem trzech drzwi. Zasada jest taka, że mamy troje drzwi. Za jednymi drzwiami jest nagroda. I jak się okazuje, jeżeli wskażesz jedne drzwi i za tymi drzwiami nie ma. . .
Znaczy, jeżeli wskażesz jakieś drzwi, a prowadzący teleturniej, bo to było w teleturniejach często używane, otworzy jedne z tych drzwi, których nie wskazałeś i tam pokaże, ale za tymi drzwiami nie ma nagrody. Tak. To teraz. . . Statystyka mówi zmień decyzję. No ale dlaczego mówi tak statystyka? Statystyka. To jest problem, zachęcam, możecie znaleźć, pojawia się tutaj pełnoprawna nazwa tego problemu, myślę. I poczytajcie dlaczego, bardzo ciekawy temat. No choćby dlatego, że wcześniej decydowałeś jeden z trzech i miałeś prawdopodobieństwo 33%, a jak teraz podejmujesz decyzję. . . to podejmujesz decyzję z 50% prawdopodobieństwa. Tak, ale chodzi mi o to, że. . . No i teraz on mówi tak, to jeżeli zadał tak normalnie to pytanie, mówi, no tu otworzyłem, znaczy wskazałem drzwi, otworzono, tam nie ma nagrody, co robisz? No to Czartki powiedział, no to zmień decyzję. Prawidłowo powiedział. Natomiast on mówi, ok.
Jest ten problem, otworzono te drzwi, nie ma nagrody, ale prowadzący również powiedział, że za drzwiami, które wskazałeś, jest nagroda. Co robisz? Zmieniam decyzję. No to oczywiście pomyłka. Bez sensu. Bez sensu. Nikt z nas by tak nie odpowiedział, gdyby rozumiał sens. A czat GPT, on wiedział, że statystycznie należy powiedzieć tak, bo nikt nigdy nie zadał mu takiego pytania. Nie potrafił wywnioskować, bo on nie wnioskuje, on tylko podchodzi do tego statystycznie. Więc tak naprawdę inteligencja, z którą mamy do czynienia teraz, ta sztuczna inteligencja, ona ciągle nie rozumie. Nie rozumie. No i teraz. . . Na razie. Na razie. Może kiedyś będzie rozumiała. Czy możesz na chwilę przytoczyć, dla tych, którzy nie wiedzą, na czym polegał test Turinga? I to ciekawe, bo Turing żył w latach 50-tych, 60-tych, w ubiegłym wieku, jeszcze wcześniej, bo przecież rozwalił. . . Enigma to jest. .
. No dobra. To jest dobry temat. Natomiast on był jednym z tych, obok tych Polaków oczywiście, którzy mu pomogli, był jednym z tych ludzi, którzy rozbroił Enigmę. Natomiast generalnie był genialnym matematykiem, tak możemy powiedzieć. Niestety się zabił, ale to jest inna historia. Wydaje mi się, że zabił się w latach 50. Nie wiemy tego, niech ktoś to sprawdzi. On już wtedy powiedział, że będą takie wyzwania, że będziemy kiedyś rozmawiali. z komputerami i nie będziemy wiedzieli, czy to jest komputer, czy to jest człowiek, czy coś takiego. I wymyślił taki test. No i test polega właśnie na tym, że wsadzamy ludzi przed stanowiskami. Powiedzmy, jest 10 stanowisk, 10 ludzi siada i rozmawia, a nie wie z kim. Każdy z nich rozmawia z kimś po drugiej stronie, nie wie z kim.
Przyjmijmy na razie za pomocą tekstu, żeby było prościej. I część osób za kurtyną to są ludzie, a część to jest komputer. I chodziło o to, że test Turinga mówi, jeżeli ludzie rozpoznają, czy to jest komputer, a to był człowiek, i wskażą prawidłowo komputer, to komputer nie przeszedł tego testu. Otóż okazało się, że ten test parę lat temu został już osiągnięty. No bo Turing powiedział, załóżmy, że jesteś robotem, to ja się Cię pytam, ile wynosi pierwiastek z 286 tysięcy tam, ileś tam. I Ty mi po prostu odpowiadasz, tak bez namysłu. no to ten test właśnie mówi, że jesteś robotem. Natomiast programiści bardzo sprytnie oprogramowali cały ten LLM, dodając wiele różnych sztuczek, które spowodowały, że ten test Turinga można powiedzieć, że został zdany. No i właśnie, czy to powoduje, że mamy do czynienia z inteligentną. . .
Nie, ale mnie dzisiaj zastanawia jedna rzecz, bo. . . Mam jeszcze do Ciebie jedno pytanie. Czy w powodu tego, co powiedziałeś. . . kiedy sztuczna inteligencja wygrywa w szachy. Czy to oznacza, że ona po prostu nauczyła się wszystkich możliwych kombinacji, których jest po prostu tak dużo, że. . . Ja bym powiedział, jeżeli obserwujemy efekt końcowy, to zwróć uwagę, że nie jesteśmy na podstawie efektu końcowego ocenić, czy gramy z inteligentnym graczem, czy z mega super komputerem. Bo. . . Wszyscy zgodzimy się z tym, że jeżeli ktoś analizuje wszystkie możliwe ruchy, czyli robi coś, co w informatyce nazywamy brute force, i on analizuje wszystkie możliwe ruchy i znajduje ten ruch najbardziej zapewniający zwycięstwo, to nie mamy do czynienia z inteligencją. Natomiast człowiek nie jest w stanie tego zrobić.
On gra na podstawie innych algorytmów. Jeżeli mamy maszynę, to nie wiemy, jak ona podejmuje decyzję, bo ona może. . . Niektóre może nie analizować wszystkich ruchów możliwych, bardzo możliwe, ale może analizuje bardzo dużo tych ruchów, a może prowadzi jakieś przybliżone obliczenia, ale to są cały czas obliczenia. Oczywiście w szachach znalezienie wszystkich możliwych ruchów jest trudne, więc te systemy, które wygrały na przykład ten Deep Blue, który wygrał z Kasparowem, on nie liczył wszystkich możliwych. ruchów. No ale również polegał na obliczeniach, a nie na rozumieniu gry w szachy i graniu. Na przykład nie wiem, czy maszyna będzie w stanie blefować świadomie, czy ona wymyśli blef. Ona może zablefować, ponieważ statystycznie były takie ruchy i mówię, aha, to teraz trzeba zrobić taki ruch, bo tak statystycznie. . .
jak były takie partie, to ludzie robili taki ruch, ale ona. . . takiego ruchu może nie wymyślić. Albo może zrobić ruch, który wszystkich zadziwi, tak jak było z tą grą Go, gdzie teraz przytaczam z głowy informację, gdzie w 39. ruchu, to post factum, odkryli jakiś ruch, że maszyna zrobiła jakiś ruch, który wszystkich zadziwił do tego stopnia, że ten przeciwnik, człowiek, myślał, że coś się zepsuło. A potem się okazało, po 100 ruchach, okazało się, że ten ruch był kluczowy. I tak, może nas zadziwiać, może robić dziwne rzeczy, ale one nie wynikają. To jest moja teza, chętnie poczytam, co wy napiszecie, czy się zgadzacie ze mną, ale ja stoję na stanowisku, to nie jest rozumienie, to nie jest inteligencja.
To Łukasz, jak ty dzisiaj byś się rozpoznał, czy masz do czynienia z prawdziwą inteligencją, z ludzką, czy jednak z udawaną? Jakie by to było pytanie? I czy w ogóle istnieje takie pytanie, które może. . . Ja myślę, że przede wszystkim kluczem jest znalezienie pytania, którego nigdy do tej pory nie było. I teraz podam tobie przykład, to mnie rozbiło też, profesor Dragan, który też jest, stoimy po tej samej stronie barykady, a on mówi, no zadaj pytanie do czata GPT następującej treści. jaka jest poprawna odpowiedź na to pytanie. No, jasne. I teraz, my nawet, ludzie będą mieli problemy z udzieleniem właściwie odpowiedzi, ale chcę Ci powiedzieć, że jest prawidłowa odpowiedź na to pytanie. Ona wynika z tego, że słowa polskie jaka może się odnosić do tego właśnie pytania o samą odpowiedź, albo pytanie się o cechę odpowiedzi.
I teraz, jeżeli. . . Odkryjemy to drugie znaczenie, człowiek inteligentny odkryje ten ukryty przekaz. I prawidłowa odpowiedź jest jednowyrazowa. Bo to jest poprawna odpowiedź. Treść odpowiedzi jest jednym wyrazem, w związku z czym to jest poprawna odpowiedź na to pytanie. Och, ale tylko wtedy, kiedy weźmiesz to drugie. No, bo w przeciwnym sensie. . . W przeciwnym wypadku pytanie nie ma sensu. Jedyne sensowne znaczenie tego pytania jest wtedy, kiedy potraktujemy słowo jaka, nie pytanie o samą treść odpowiedzi, tylko o cechę odpowiedzi. I prawidłowa odpowiedź jest jednowyrazowa. Bardzo ciekawa gra logiczna, bardzo zadawana. I on właśnie mówi, no niech czat GPT odpowie na takie pytanie. Pod warunkiem, że nie było go wcześniej w zbiorach testowych. No właśnie.
Mamy tutaj ten problem również, że tych takich pytań, których nikt nigdy wcześniej nie zadał, umówmy się, liczba jest ograniczona. Ja właśnie uważam, że nie. Że na tym polega inteligencja i na tym polega ta różnica pomiędzy człowiekiem a maszyną, że my to wymyślimy. No ale ile tych pytań możemy wymyślić? Nieskończoną ilość. No to. . . okej. Mam wątpliwości. Ja tak sądzę po tym, co. . . Zgłębiam, bo ja już myślałem, że się nie da niektórych rzeczy robić. Ale inteligencja może rozpoznać. . . Sztuczną inteligencję? Tak, bo są takie mechanizmy do rozpoznania deepfake'u dzisiaj. A podobno jak jest jakiś tekst napisany właśnie przez chat GPT czy przez Gemini, no to są takie mechanizmy, które rozpoznają. Więc zastanawiam się w jaki sposób. Nie wiem, natomiast na pewno wiemy, że to, co się dzieje. .
. ze sztuczną inteligencją, to jest to, że ona uległa bardzo szybkiej regresji, czyli bardzo szybko, jeśli zbiór danych wejściowych będzie zanieczyszczony czy zatruty rzeczami pisanymi przez sztuczną inteligencję, to następuje szybkie zniszczenie jakości tego modelu. Tutaj jeszcze jedna rzecz, że na przykład sztuczna inteligencja bardzo szybko zaczyna, tak jak sam powiedziałeś, popadać w pewną delusion, czyli w jakiś obłęd, zaczyna majaczyć, bo im więcej udzieli słów sama, tym ten kontekst staje się bardziej sztuczny i ona już zaczyna potrafić popłynąć, tak jak z tym kościołem mariackim, potrafi popłynąć gdzieś zupełnie indziej. Czy będzie potrafiła rozpoznać siebie? Nie wiem. To jest bardzo ciekawe pytanie. W całej tej rozmowie ja chciałem tylko powiedzieć jedną rzecz. Nie nazywajmy modeli LLM sztuczną inteligencją i nie pytajmy jej, jaki będzie kurs Bitcoina w 2025 roku.
To jeszcze jakby na kurs Bitcoina teraz w 25 roku, w 26 składa się po prostu. No i właśnie pytanie, czy bardzo duża, ale jednak ograniczona w swojej liczbie ilość procesów. To, co się dzieje na giełdzie amerykańskiej, to co się dzieje na giełdzie albańskiej, jeżeli taka istnieje, jaki jest stosunek jena do dolara i że my nie jesteśmy w stanie tego tak organoleptycznie empirycznie przerobić, a sztuczna inteligencja po prostu ma dostęp do tych wszystkich, wszystkich danych. Generalnie jest w stanie przewidzieć, czy prezydent Trump nie spadnie ze schodów. A to są rzeczy, które mogą wpłynąć na cenę, więc jakby to prognozowanie. . . To tak samo, jak ty nie jesteś w stanie to tak przewidzieć. Tak. Ale jednak podejmujesz. Zwróć uwagę, i to jest coś, co Łukasz Lamża ciekawie opisał, mówiąc o sztucznej inteligencji. On. .
. powiedział, że to, jak rozpoznać sztuczną inteligencję, znowu mówimy o tu i teraz, bo prawdopodobnie za chwilę jacyś sprytni programiści dorobią takie coś, co będzie symulowało takie zachowanie. On mówi, jedną z permanentnych cech tych LLM-ów jest to, że on zawsze ci odpowie. On natychmiast zawsze odpowiada. On mówi. Zadajesz pytanie, on mówi. A człowiek nie. Człowiek czasami mówi, wiem o co ci chodzi, ale nie potrafię ci tego opisać. Wiem o czym mówisz, wiem o co pytasz, ale nie potrafię ci odpowiedzieć. Bo to jest skomplikowane. I teraz może odnosić się do porównań, ale nie wiem jak to. To jest wykracza poza aparat mojej Mowy. Tak, na przykład. Więc to są naprawdę ciekawe tematy. Łatwo jest udawać kogoś inteligentnego, przez program może łatwo udawać, że jest inteligentny, wcale nie będąc inteligentnym. Wiesz dlaczego. .
. Kibicuję temu, żeby jednak trochę biznes związany ze sztuczną inteligencją spowolnił. Nie dlatego, bo porzucam w tej chwili całą dyskusję z filozofią, z bezpieczeństwem i tym podobnym. Ja po prostu myślę, że w tej chwili bardzo dużo kapitału zainwestowanego jest, kapitału, który ma apetytne ryzyko w biznesie związany ze sztuczną inteligencją, czeka na ten moment, kiedy to się właściwie chyba zaczyna dziać, że wiadomo. . . Rzeczą jest to, że sztuczna inteligencja się rozwija, ale zanim inwestorzy zaczną zyskiwać swój kapitał, ciągnąc z tego tytułu dywidendę, to jeszcze bardzo dużo wody w Mississippi i w Wiśle musi upłynąć. No więc czekam, aż inwestorzy zaczną wycofywać ten kapitał wcześniej i zaczną go kierować, no właśnie, w Bitcoina. To jest jedna z moich teorii, że tak może się wydarzyć.
Natomiast jeżeli nowe projekty związane z sztuczną inteligencją będą powstawały i inwestorzy ciągle w tym owczym pędzie będą inwestować w takie projekty, no to po prostu tak sobie myślę, że Bitcoin będzie musiał konkurować o jeszcze inny kapitał, który został mu zabrany. Ja myślę, że Bitcoin w końcu zacznie konkurować o kapitał, który do tej pory jest w bardzo małym stopniu obecny. Bo Ty mówisz o kapitale spekulacyjnym, a ja wierzę, że Bitcoin w końcu przestanie być narzędziem spekulacyjnym. Nie, nie, ja nawet teraz nie chodzi mi o kapitał spekulacyjny, chodzi mi o to, że. . . Jeżeli inwestujesz w AI. . . Tak. To spekulujesz, inwestujesz, ponosisz wysokie ryzyko. A pieniądze w bitcoina wkładane powinny być nie dlatego, że on wzrośnie. Ja stoję na stanowisku, że zachowa wartość.
To jest to, dlaczego ludzie kupują, inwestują w złoto. Część na pewno robi to z pobudek związanych z spekulacją, ale. . . te duże kapitały tak naprawdę inwestują, na przykład banki centralne, inwestują w złoto, bo złoto zapewnia wartość. I tam są największe pieniądze. Tam są te olbrzymie kwoty, które jeżeli zaczniemy widzieć, jeżeli Bitcoin w końcu stanie się tym store of value, to wtedy tam będą wchodziły duże pieniądze, dlatego nie ma. . . W tej chwili jeszcze Bitcoin jest za mały. On musi urosnąć tysiąc razy, żeby mógł stać się faktycznie tym store of value. Ale właśnie, musi urosnąć tysiąc razy, czyli będą ludzie wkładali, bo ci, którzy mają jakiś apetyt na ryzyko, to będą tam wchodzili, ale w bitcoina pomału. . .
Część osób wchodzi, bo myśli, to jest sposób na to, żebym zachował wartość, zabezpieczył tą wartość, a może bardzo dużo zarobił. To myślą oczywiście ci mali, tacy jak my, bo to jest dla nas jakaś szansa. Natomiast w przypadku dużych kapitałów, tam bitcoin zacznie się liczyć w momencie, gdy jego cena właśnie zacznie pokazywać stabilność. pod kątem wartości, a nie w odniesieniu do innych walut. Tak, ale teraz powiem coś kontrowersyjnego, oby nie działo się to jeszcze teraz, bo właśnie dzięki tej fluktuacji na Bitcoinie, którą mamy, tak naprawdę jest szansa na to, żeby budować jakąś swoją przyszłość finansową. Gdyby od dzisiaj cena Bitcoina była stabilna, a było. . . Nie, Bitcoin jest za słaby jeszcze, za mało. . . Za mało jest wartości w nim.
Ale dzięki tej fluktuacji to jakby mamy szansę na to, żeby się w jakiś tam sposób. . . Rekordowe wyniki na ETF-ach bitcoinowych. Ja myślę, że wpływ jest bardzo duży. Ta ilość pompowanego pieniądza w bitcoina robi się coraz większa i on moim zdaniem zaczyna pochodzić właśnie od tych źródeł, które wcale nie są tak bardzo otwarte na ryzyko. że coraz więcej osób, które nie zaryzykuje w OpenAI albo w jakąkolwiek inny startup, ale oni zaczynają dostrzegać tym, że Bitcoin może być tym store of value, dlatego zachęcam Was do przemyślenia tezy, którą miałem podczas ostatniego, nie przedostatniego występu na Cryptosphere we Wrocławiu, gdzie mówię. . . o tym, dlaczego nie należy sprzedawać Bitcoina. Okej. Łukasz, chyba rozmawiamy 40 minut, tak mi się wydaje. Bardzo długo. Mało o krypto, dużo o innych tematach. O sztucznej inteligencji.
Temat niezwykle ciekawy pod każdym względem, i ontologicznym, i matematycznym, i technologicznym. Z jakiego jakby. . . NGINu, Ty korzystasz, kiedy dyskutujesz. Czy to jest CharGPT, czy to jest Gemini, czy. . . Korzystałeś z Bielika? Słyszałeś o Bieliku? Akademia górnicza. . . Słyszałem, że nie korzystałem. Więc ja bawiłem się, bo oni twierdzą, że jeżeli chodzi o język polski, to oni są najlepsi. Dlatego, że to jest język polski. Bardzo możliwe, natomiast to, co. . . Ja nawet bawiłem się uruchamiając te modele na komputerze lokalnie. One co prawda wymagają większej ilości pamięci, żeby uruchomić te duże modele, ale faktycznie zadziwiające jest to, że możesz uruchomić to na swoim komputerze i bez internetu dostawać odpowiedzi. To jest przerażające, jak bardzo ten program potrafi udawać inteligencję. W tej chwili korzystałem z trzech czy czterech takich różnych. . .
Zresztą jest dużo materiałów o tym, jak uruchamiać te modele na swoich komputerach. No, można się pobawić. Są takie nawet darmowe przecież. Ale czat GPT, GPT? Ja korzystam w tej chwili z czata GPT, chociaż korzystam stosunkowo mało. Nie mam poczucia pewności informacji. To znaczy mam takie, po tych moich doświadczeniach z tym Kościołem Mariackim i kilkoma innymi. przestałem mieć zaufanie do czata GPT jako źródła informacji. Często zdarzało mi się korzystać na przykład do zrobienia jednej rzeczy i wydaje mi się, że to było robione dobrze. Nie zawiodłem się ani razu. Gdy miałem długi tekst, na przykład czterostronicowy i poprosiłem o streszczenie, to byłem zadowolony z efektów. Nie złapałem go nigdy na. . . jakiejś istotnej pomyłce, ale też pewnie nie wolno temu ufać tak w stu procentach.
Ja mam takie jeszcze doświadczenie, że jak rozmawiam sobie z Gepetto, jak niektórzy mówią, albo z Gemini, czy tam z innymi jeszcze systemami, to często mam właśnie takie przekonanie, że muszę te głębsze myśli od nich wyciągać. Zadaję jakieś pytanie i dostaję odpowiedź taką stratosferyczną, ogólną, gdzie na przykład zaplanuj mi podróż. Jak mam zdobyć koronę Góry Europy? No to dostaję wskazówki, pamiętaj, żeby ubrać się ciepło, żeby bezkwiecznie się poruszać itd. A to nie o to mi chodzi. No ja bym chciał wiedzieć, ile czasu mi zajmie wejście na każdą górę, ile zejście, jakie są niebezpieczeństwa, ale konkretne. No nie, że. . . I tutaj mam takie doświadczenie, że muszę. . . ciągnąć za język. I to jest coś co mnie tam generalnie. . .
A dlaczego tak jest? Ponieważ w sieci masz 100 razy więcej artykułów, które mają jak zdobyć koronę Ziemi i tam jest we wszystkich napisane, musisz ciepło się ubrać itd. A bardzo mało jest artykułów, które faktycznie opisują jak powinna wyglądać trasa, albo ten opis wyglądu trasy jest stosunkowo krótki, więc statystyka tego czatu, czy ten podział, on mówi Aha, to skoro. . . tyle procent poświęcono czasu na opis o ubraniu, o cieple i tak dalej, to on będzie udzielał takich odpowiedzi. No dobra. Myślę, że to jest chyba taki moment, gdzie możemy tutaj postawić kropkę, chociaż temat mógł być drążony jeszcze zdecydowanie mocniej. A Was, jeśli jesteście jeszcze z nami, bardzo prosimy o to, żebyście kliknęli w łapkę w górę, subskrybuj dzwoneczek i pozwolili nam docierać z. . .
z tymi programami do jeszcze większej ilości osób. No i koniecznie ocencie ten odcinek No Comment w skali. . . Od 1 do 6. 1. Zmarnowaliście 40 minut mojego życia i jest to już nie do odzyskania. Jedyne, co mi pozostało, to. . . Napisać ten komentarz. No a 6. Wybitnie, dobrze, wspaniały kierunek. Moje życie od dzisiaj jest innym życiem. W dobrym tego słowa oczywiście znaczeniu. Czy masz ciekawostki? Mam. No to proszę bardzo, przechodzimy do wysoce kalorycznej części naszej audycji. Jaką masz ciekawostkę? Moja ciekawostka dzisiaj jest trochę medyczna, ale przede wszystkim zaskakująca. Czy wiesz, że 20-25%, zależy jak liczyć, kości człowieka jest zlokalizowanych w stopie? 25% wszystkich kości, jakie masz, zlokalizowanych jest w stopie. Nie widziałem tego. Nie widziałem.
Chociaż teraz jak o tym powiedziałeś, to wiem, że wśród stopie jest pełno takich małych kosteczek. No to jest ciekawe. Moja ciekawostka dotyczy Nagrody Nobla. Nawet myślałem o tym, żebyśmy nagrali odcinek na temat tych nagród, które były w tym roku przyznane. W szczególności chodzi mi o. . . fizykę i chodzi mi też o ekonomię, no bo ta fizyczna dotyczyła właśnie sztucznej inteligencji, a ekonomiczna, ciekawe wnioski, o tym może porozmawiamy gdzieś w kolejnym odcinku, ale ciekawostka jest taka, nagroda Nobla z dziedziny ekonomii tak naprawdę nie jest nagrodą Nobla. Alfred Nobel nie zapisał jej w swoim ekstamencie. Faktycznie, to jest jedyna nagroda, tak, to przypominam sobie, że też takiego wiedziałem. Tak, i ona. . .
jest przyznawana od 1969 roku i ona to jest nagroda ekonomiczna jakoś tak, imienia Alfreda Nobla, oczywiście przyznaje ją szwedzki bank, ale to nie jest ta oryginalna nagroda, natomiast oczywiście już przyjęło się mówić o tym, że to jest Nobel dziedziny ekonomii. Tak czy inaczej jest to najbardziej prestiżowa nagroda, jeżeli jesteś ekonomistą. Bardzo interesujące. Tak. Dobrze. Moi drodzy, tak jak powiedział Łukasz, prosimy o komentarze, prosimy o łapki w górę, o udostępnianie, krytykowanie. My widzimy się gdzieś tam w kolejnych odcinkach. Wszystkiego dobrego. Hej. Cześć. .