Podcast Opanuj.AI
Bądź zawsze na bieżąco
31 stycznia 2025
DeepSeek R1 - koniec ChataGPT? Obalamy mity chińskiego modelu! | Opanuj.AI - Styczeń 2025
Słuchaj na twojej ulubionej platformie
Dodatkowe materiały
Lista materiałów, do których odnosiliśmy się w odcinku
Transkrypcja odcinka
Tekst wygenerowany automatycznie - może zawierać drobne błędy i literówki
Marcin: Cześć, witajcie w kolejnym odcinku podcastu Opanuj.ai. Tym razem podsumowanie stycznia, a w nim chiński typhoon, który przeszedł przez branżę generatywnej sztucznej inteligencji. Waszymi gospodarzami będzie Marcin Ciarkowski.
Przemek: I Przemek Smyrdek, cześć.
Marcin: No i właśnie będziemy dla Was rozbrajali temat DeepSeeka, który wywołał dużo kontrowersji, dużo zainteresowania. Są to modele, które konkurują z amerykańskimi gigantami. z GPT-4, z Chrome 3.5 Sonnet, a nawet z OpenAI O1. Zapewne w ostatnich dniach usłyszeliście w mediach i w internecie wiele tego typu stwierdzeń. Pojawiły się rewolucyjne modele z Chin, których totalnie nikt się nie spodziewał, że wydano zaledwie 5 milionów na stworzenie tych modeli, Tymczasem w Stanach Zjednoczonych palone są miliardy dolarów, że to wszystko jest side projectem nieznanej firmy z Chin, że ten model powstał przypadkowo, a jednocześnie jest tak genialny, że mamy tutaj swego rodzaju powtórkę ze Sputnika dla zachodniej branży technologicznej, że DeepSeek w formie aplikacji bije rekordy popularności i jest początkiem końca ery Chata GPT. że amerykańskie firmy są totalnie zaskoczone, że jest to gwóźdź do trumny Nvidia, która w ostatnich miesiącach zyskiwała niesamowitą kapitalizację, a teraz straciła 17% wartości jednego dnia, spadły akcje o 600 miliardów. i nikt już taką ilością kart graficznych nie będzie zainteresowany, że DeepSeek to absolutnie rewelacyjne wyniki w benchmarkach, w którym ulega nawet model O1 Pro dostępny za 200 dolarów miesięcznie. No i że ten open source DeepSeek, którego każdy z nas może pobrać, już niedługo będzie śmigał w domu każdego z nas, a wręcz na naszych smartfonach. od teraz rzekomo jest to możliwe, tak przynajmniej twierdzi wielu AI influencerów. Wiele z tych twierdzeń ma dużo więcej wspólnego z przypuszczeniami, żeby nie powiedzieć fake newsami i propagandą niż z faktami. O tym właśnie w dzisiejszym odcinku będziemy mówili. Gdzie są fakty, gdzie są przypuszczenia, a gdzie są fake newsy i bójdy. Spędziliśmy naprawdę dużo czasu, żeby to wszystko posortować do Was wyjaśnić, tak abyście mieli realistyczne i pragmatyczne spojrzenie na tą całą sytuację i wiedzieli na czym stoimy na początku 2025 roku za sprawą tej głośnej chińskiej premiery i czego możemy spodziewać się w kolejnych miesiącach. Zanim przejdziemy do tego tematu i do innych tematów, kilka ogłoszeń parafialnych.
Przemek: Dokładnie tak, zanim przejdziemy do głównego tematu odcinka, chcielibyśmy Was zaprosić do śledzenia całej działalności projektu Opanuj.ai. Kiedy wejdziecie na stronę Opanuj.ai, to zobaczycie, że my o tej sztucznej inteligencji mówimy na różne sposoby i ona jest dostępna w wielu różnych smakach. Ten podcast to jest jeden z takich smaków, jeśli słuchacie tych naszych odcinków, jeśli one Wam przypadają do gustu. to bardzo docenimy podanie tego odcinka dalej, wystawienie maksymalnej oceny, podzielenie się komentarzem, który również jest takim motorem napędowym. Natomiast to nie wszystko, bo jak właśnie jesteście na Opanuj.ai, to możecie chociażby zapisać się na newsletter, dzięki któremu co poniedziałek dostaniecie na swoją skrzynkę mailową trzy starannie wybrane przez nas materiały o sztucznej inteligencji i dzięki temu nie będziecie zostawać w tyle. Jeśli chcecie zainwestować nieco więcej czasu i energii, no to zachęcamy do dedykowanych materiałów szkoleniowych, które na tym Opanuj.ai publikujemy. Po pierwsze dla programistów mamy kurs Cursor Programuj z AI, z którego skorzystało już ponad 300 studentów. Jest to kurs, który przygotuje Was właśnie na epokę współpracy programisty ze sztuczną inteligencją, a to wszystko na przykładzie edytora Cursor, który jest wspomaganym modelem Cloud 3.5 Sonnet. W samym kursie ku zaskoczeniu wielu studentów nie tylko praca z edytorem, nie tylko promptowanie, ale również solidna dawka wiedzy teoretycznej. No i przykłady tego, jak sztuczna inteligencja może chociażby automatyzować codzienne obowiązki, zadania czy scenariusze, z którymi spotykacie się w codziennym życiu. Dla tych firm, dla tych osób, które chcą zainwestować jeszcze więcej w naukę sztucznej inteligencji, chcą się ustawić na jeszcze lepszej pozycji względem swojej konkurencji, mamy dedykowane warsztaty, mamy szkolenia Opanuj AI, które pomogą wam naprawdę dobrze, solidnie i w takiej całodniowej formie zrozumieć to, czym jest sztuczna inteligencja, jak z niej korzystać, jak jej potencjał może się przekładać na problemy, kreatywność, czy na komfort pracy każdego z was. Opony AI to są szkolenia kierowane do trzech grup uczestników. Szkolenie dla programistów, szkolenie dla kadry menedżerskiej i szkolenie dla pracowników back-office. Jak zwykle rozpoczynamy od naprawdę luźnych, niezobowiązujących konsultacji. Na naszej stronie znajdziecie przycisk, przez który możecie nas zaprosić na krótką 30-minutową rozmowę. My poznajemy wasze problemy, wyzwania czy wasze nadzieje związane ze sztuczną inteligencją i budujemy taki skrótny na miarę plan warsztatów, Już od początku kwietnia mamy dostępne terminy. Możemy takie warsztaty dla Was realizować. Sporo firm z tego skorzystało. Na stronie macie referencje. Nie musicie nam wierzyć na słowo. Przeczytajcie to co o warsztatach mówią i piszą po prostu nasi partnerzy z którymi już do tej pory współpracowaliśmy. To tyle jeśli chodzi o ogłoszenia to tyle jeśli chodzi o nasze projekty. Przejdźmy do właściwego odcinka. Marcin powiedział że głównym tematem będzie właśnie chiński tajfun o nazwie Dipsik. Natomiast nie będzie to jedyny temat. Na końcu porozmawiamy o w projekcie Stargate, czyli dużej, naprawdę istotnej inicjatywie związanej z inwestycjami w amerykański sektor sztucznej inteligencji oraz o tym, jak odpowiada na niego chiński bank. No i porozmawiamy o czymś zdecydowanie bardziej przystępnym, chyba że mieszkacie w Unii Europejskiej. Open AI Operator, czyli taki agent, który będzie mógł obsługiwać w przyszłości waszą przeglądarkę, a na razie przeglądarkę w chmurze, realizuje zadania, usprawnia pracę, automatyzuje codzienne obowiązki, To jest również coś, co pojawiło się na wielu nagłówkach, też chcemy tego operatora skomentować. Natomiast zanim porozmawiamy o Stargate i operatorze, no to właśnie zróbmy teraz taki mały piwot w kierunku opanu i chińskiej AI i porozmawiajmy o tym, czym tak naprawdę jest DeepSeek. Tego deepseeka można ugryźć na wiele różnych sposobów. My dzisiaj chcemy przejść przez, można powiedzieć, debunking wielu różnych test, które pojawiły się w tej przestrzeni medialnej. Natomiast na plotki, pogłoski, pomówienia zawsze przyjdzie czas, zawsze będzie pora. Zanim my tam wskoczymy, to porozmawiajmy najpierw o surowych danych. Chcemy wam bardzo szybko przedstawić kilka wyników benchmarków, co do których przyznaje się deepseek. Bo te wyniki benchmarków w pewnym sensie ustawiają te nowe modele w konkretnej relacji do tych modeli, o których mówiliśmy w poprzednich odcinkach. Główne pytanie brzmi, czy mówimy tutaj o przełomie, czy mówimy tutaj o absolutnym końcu firm amerykańskich i o tym, że Chiny stają się absolutnym liderem w sztucznej inteligencji, czy raczej Chiny znajdują się na pozycji bliskiej temu co już wcześniej widzieliśmy, no i tutaj podpowiedź raczej mówimy o tej drugiej sytuacji. Więc jak to wygląda jeśli chodzi o wyniki w benchmarkach? Nieco inaczej musimy ocenić model DeepSeek V3, który pojawił się na rynku w grudniu 2024 roku, jego będziemy odnosić do GPT-4O. To nie jest model, który w natywny sposób obsługuje te wszystkie mechanizmy rozumowania, ten reasoning chain of thought. Nieco inaczej musimy podejść do modelu DeepSeek R1, który pojawił się w styczniu 2025 roku, jego będziemy porównywać do O1 czy do nadchodzącej w przyszłości O3, no bo tutaj mówimy właśnie o tych mechanizmach reasoningowych. No jak wygląda relacja obu tych rodzin, modeli względem siebie? No więc tak, jeśli chodzi o DeepSeeka V3, no to oczywiście w zależności od typu problemu będziemy mówić o różnego rodzaju zyskach czy różnego rodzaju przewadze. Jeśli chodzi o wiedzę ogólną, o takie ogólne rozumienie języka, to DeepSeek V3 zachowuje się niemal identycznie jak GPT-4O mówimy tutaj o różnicach na poziomie 1 punktu procentowego GPT-4O i tak jest naprawdę dobrym modelem bo w MML-u zyskuje 87,2 punktów procentowych natomiast DeepSeek V3 88,5 więc mamy tutaj 1,3 punkta procentowego różnicy Różnice bardziej istotne widać na poziomie zdolności matematycznych w benchmarku, który można powiedzieć odpowiada na potrzeby olimpiad matematycznych w Stanach Zjednoczonych czyli AIMI Mamy tutaj czterokrotny zysk w tych wynikach, który osiąga DeepSeek. Mamy przeskok z 9 punktów procentowych na 39,2, więc można powiedzieć, że chińskie AI staje się lepsze w matematyce. Natomiast jeśli chodzi o umiejętności programistyczne, o benchmark SWE Verified, to znowu wracamy, można powiedzieć, na ziemię i znowu mamy takie zdolności, taką niezawodność, jaką widzieliśmy już wcześniej. O ile GPT-4o zyskuje 38,8, punktów procentowych w tym testie, w tym benchmarku, to DeepSeek V3 podnosi to o 4 punkty do góry, uzyskując wynik 42%. Więc widać, że mówimy tutaj o zyskach, mówimy tutaj o wzroście jakości, natomiast ten wzrost pewnie trzeba zniuansować w zależności od tego, o jakiej dziedzinie, o jakiej domenie rozmawiamy, ten największy zysk do tej pory zaobserwowano w matematyce. No właśnie, ale mówiąc o zyskach, pewnie najbardziej trzeba porozmawiać o tych modelach reasoningowych, rozumujących, bo tutaj DeepSeek R1 zrobił chyba jeszcze więcej zamieszania niż ta V3, o której już de facto mówiliśmy w jednym z naszych ostatnich odcinków naszego podcastu. Nie jest to zupełna nowość. Natomiast R1, o ile mnie pamięci nie mieli, będziemy komentować w tak intensywny sposób po raz pierwszy i co ta R1 robi względem konkurencji, względem O1, która jest dostępna na rynku. No więc tak, na samym początku zejdźmy na ziemię. Jeśli chodzi o benchmark MMLU, to właśnie wiedzę ogólną, rozumienie języka naturalnego, to mamy tutaj niemal identyczne wyniki względem tego, co OpenAI o 1, czyli 90,8%. Jeśli chodzi o olimpiady matematyczne, to mamy tutaj zysk, natomiast to już nie jest czterokrotna różnica w tym, co OpenAI dostarcza, to jest różnica zaledwie na poziomie 5 punktów procentowych. 74,4 do 79,8. Jeśli chodzi o kolejny benchmark matematyczny, czyli Math500, to tutaj znowu różnice wahają się na poziomie 1 punkta procentowego względem o jedynki, więc R1 nie wywraca stolika, raczej Chińczycy doścignęli te modele, które Open AI na jesieni zaprezentowało. Jak to wygląda jeśli chodzi o opinię użytkowników? W znanej usłudze LM Arena, którą często tutaj przytaczamy, mamy dość porównywalne wyniki w tych bezpośrednich starciach, mamy elo 1316 kontra 1322, mamy wysokie miejsce R1, Natomiast znowu to nie jest tak, że pojawia się tutaj jakaś przepaść albo jakieś wyniki, jakiś feedback, co do którego inne dostępne modele, szczególnie te amerykańskie, nie mogłyby podbić, nie mogłyby doścignąć. No więc można powiedzieć, że Chińczycy są na wysokim poziomie gry, opanowali tę grę na wysokim poziomie, gdzieś tam wskoczyli w okolice podium. Natomiast to nie jest tak, że mamy tutaj rewolucję na poziomie samej jakości. Mamy zapowiadaną rewolucję na kilku innych poziomach, w kilku innych obszarach i to właśnie to spowodowało całe to wariactwo medialne, całą tą viralowość tego tematu i dzisiaj przede wszystkim o tym będziemy chcieli mówić. O co konkretnie chodzi? Po pierwsze można odnieść wrażenie, że chiński DeepSeek te wszystkie wyniki odniósł czy uzyskał jakoś przypadkowo, bez wysiłku. Jest to jakiś side project jakiegoś funduszu inwestycyjnego, Chłopaki usiedli, pojawił się model i on jest tak dobry jak miliardowe inwestycje firm z Ameryki. Jest tanie od strony produkcji, o tym już powiedział Marcin. 5 milionów kontra setki miliardów, które wyrzucają w błoto firmy amerykańskie. Tanie od strony użytkownika. 30-krotna oszczędność względem OpenAI na poziomie samego API, więc każdy z nas będzie budował już techniczne integracje właśnie w oparciu o DeepSeeka. Są to modele dla każdego, bo są to modele open source, można je pobrać i uruchomić na komputerze, na smartfonie. Nie było takiej sytuacji w przypadku wcześniejszych rozwiązań. Teraz DeepSeek to właśnie zmienia. Tylko, że w każdym z tych punktów jest gwiazdka. Gwiazdka albo mała, albo ogromna gwiazdka. No i tutaj Marcin pytanie do ciebie, którą z tych gwiazdek chciałbyś najpierw skomentować? Który z tych tematów jest szczególnie istotny na start?
Marcin: Myślę, że wszystkie tematy są istotne, ale zacznijmy od tego, co szczególnie jest dla mnie irytujące i wprowadzające w taki błąd i zrozumienie tej całej sytuacji, czyli ta cała historia, że mamy do czynienia z jakimś side projectem i z jakimś projektem, który był pozbawiony jakichkolwiek środków, funduszy i tutaj cudem chińskiej myśli technologicznej doprowadził do totalnego wywrócenia stolika. Jakie są fakty? Za całym tym zamieszaniem stoi chiński fundusz High Flyer, który został założony 10 lat temu. Ten fundusz zarządza około 8 miliardami dolarów w swoich aktywach i od 2019 roku konsekwentnie inwestuje w sztuczną inteligencję i w NLP, czyli w przetwarzanie języka. DeepSeek jest niezależną organizacją stworzoną przez Hiflyer właśnie, aby popychać do przodu badania, aby popychać do przodu modele, możliwości związane ze sztuczną inteligencją, no i domyślnie dążyć do wynalezienia generalnej sztucznej inteligencji, podobnie jak to obecnie próbuje zrobić OpenAI, Google DeepMind i tak dalej, i tak dalej. Jest to firma, Expertska jest to firma, która ma niesamowity talent i bardzo dużą świadomość całej branży. W wywiadach tyto CEO DeepSeeka widzimy, że jest bardzo duża świadomość topowych paperów z zakresu sztucznej inteligencji, świadomość tego, co się działo w poprzednich latach, co się dzieje teraz, jakie są szanse na przyszłość, jest duży nacisk na długoterminową grę, na konkurowanie ze Stanami Zjednoczonymi, no i zdobycie tego świętego grala jakim jest AGI. Co już jakby z miejsca, to te dwie rzeczy chyba sprawiają, że ciężko mówić o jakimkolwiek side projeccie. Zobaczmy na przykład na paper, omawiający model DeepSeek R1. Tam mamy ponad 90 autorów i jeszcze jest zmianka o tym, że było 100 dodatkowych niewymienionych autorów. Tak więc mamy do czynienia z prawie 200 badaczami, inżynierami, którzy pracowali nad DeepSeek R1 i nad DeepSeek V3. To jest bardzo gdzieś tam taka zachowawcza kalkulacja, którą Przemek zanotował. że chociażby nawet jeżeli 50 z tych osób zarabia około 100 tysięcy dolarów, no to już mamy 5 milionów dolarów dodatkowych kosztów za rok pracy tej kadry naukowej. Najpewniej zarabiają oni znacznie, znacznie więcej. Tacy topowi badacze w Stanach mają pensje raczej liczone w setkach, oczywiście w setkach, ale zbliżające się do miliona dolarów rocznie. Być może w Chinach są to kwoty trochę niższe, ale nie spodziewałbym się tutaj jakiejś wielkiej przepaści, więc może też tak być, że te kadry kosztują bliżej 50 milionów niż 5. No, ale nie mamy tutaj danych, ale to naprawdę są ogromne gdzieś tam kwoty, ogromne wynagrodzenia za samą pracę tych ludzi, a tutaj też niewątpliwie jak też sam CEO DeepSeeka, jak i ludzie, którzy tę firmę obserwują, mówią. Są to ludzie naprawdę top of the top, badacze z niesamowitymi możliwościami intelektualnymi, z niesamowitym doświadczeniem, z niesamowitym zapałem do pracy, którzy są w pełni poświęceni temu, aby właśnie takie wyniki, jakie obserwujemy, osiągać. No więc mamy tutaj do czynienia z taką sytuacją, że jest duży fundusz, który ma ogromne ilości pieniędzy, ma jakieś swoje cele biznesowe. No tutaj akurat jest to obracanie dużymi ilościami pieniędzy, aby jeszcze większe zyski generować i to czy to jest jakaś niespotykana sytuacja w historii? Czy nigdy czegoś takiego nie widzieliśmy i czy określenie side project jest tutaj dobrym określeniem? No otóż nie. Historia rozwoju technologii w poprzednim stuleciu widziała wiele podobnych projektów i pokazywała, że jest to bardzo skuteczne podejście. O czym warto wspomnieć? Był też taki side project, który nazywał się Bell Labs i naukowcy z tego side projectu otrzymali łącznie dziewięć nagród Nobla w poprzednim stuleciu i doprowadzili do wynalezienia kilku tak nieistotnych wynalazków jak np. tranzystor, laser, ogniwa słoneczne, język programowania C czy podstawy teorii informacji. Myślę, że słyszeliście o tych side projectach i zdajecie sobie sprawę, jaki one miały wpływ na naszą codzienność, naszą rzeczywistość, na technologię. A właśnie tak jak DeepSeek, to był projekt poboczny firmy AT&T, bo właśnie pod nią pracowało Bell Labs. AT&T jest koncernem telekomunikacyjnym, można powiedzieć więc monopolistą na tym rynku w Stanach Zjednoczonych. No i oni, aby popychać swój główny biznes, również założyli taką organizację która miała bardzo istotny wpływ na rozwój informatyki. Drugim ważnym projektem jest na przykład Rockhead Marketing, to jest branża militarna i tam również w latach 40-tych inżynierowie stworzyli myśliwiec w rekordowo krótkim czasie, również jako coś, co początkowo było side projectem głównej firmy Rockhead. Tego typu projekty są również w Apple’u, w Google’u, tak więc Nic, czego byśmy wcześniej nie spotkali i o czym byśmy nie słyszeli, tutaj nie ma miejsca. Bardzo popularny zabieg i również wynaleziony przez Amerykanów. Amerykanie również takie udane side-projecty w przeszłości prowadzili. Teraz jeszcze jest temat, z jakimi zasobami działają Chińczycy w ramach laboratorium DeepSea, Mamy tutaj bardzo niejasne informacje. Niewątpliwie nie są to zasoby tak pokaźne, z jakimi dysponują Amerykanie. Są sankcje na czipy, o tym więcej jeszcze będziemy opowiadali za chwilę, ale to również nie jest tak, że są to zasoby porównywalne np. do tych polskich, czy też większości państw europejskich. To naprawdę są niemałe ilości kadr graficznych, również tych najwyższej klasy. które mimo tych sankcji jakoś do Chin się dostają. Są na to liczne dowody i również statystyki importu tych kart, zakupów tych kart ze strony Singapuru, który jest zaprzyjaźniony z Chinami. Również tutaj budzą uzasadnione wątpliwości, czy Chińczycy są faktycznie w tak ciężkiej sytuacji, jak sami twierdzą. Ale tu również mówimy o przypuszczeniach. Mamy tylko sprawdzone dane co do tego, jakie karty zostały wykorzystane do treningu DeepSeeka V3. Faktycznie nie są to najlepsze możliwe karty. Nie ma ich tak dużo. Koszta treningu są niskie, jeżeli zawierzamy tym 5 milionom, o których była mowa, a zawierzajmy, nie ma tutaj tego podważać. Innowacje techniczne też wskazują, że były tutaj ograniczenia, jeżeli chodzi o moc obliczeniową. Ale Przemku, wspominałeś również o tym, że DeepSeek nie przebija się po raz pierwszy w naszym podcastie i też chyba nie powstała ta organizacja, firma wczoraj. Jak to właśnie wygląda z tym DeepSeekiem, jakie oni mają pod swoje, o czym się już mogli pochwalić wcześniej?
Przemek: Taką najłatwiejszą odpowiedź uzyskamy wtedy, kiedy wejdziemy sobie na stronę deepseek.com, przeskrolujemy tutaj do stopki tej strony i zobaczymy sekcję Research. Okaże się, że firma DeepSeek konsekwentnie od wielu miesięcy publikuje kolejne warianty, kolejne iteracje swoich modeli językowych. One są wyspecjalizowane w kierunku wielu różnych zadań, natomiast to co widzimy teraz to jest można powiedzieć taka wisienka na torcie, bo wcześniej mieliśmy DeepSeeka V3, to był jeden z tematów naszego odcinka grudniowego, tutaj mieliśmy wyrównanie właśnie tych zdolności GPT-4.0, ale mieliśmy też DeepSeek Codera, który według wielu benchmarków i według takiego ogólnego vibe checku dawa naprawdę dobre rezultaty jeśli chodzi o asystę w programowaniu. W połowie zeszłego roku mieliśmy model DeepSeek V2, co ciekawe ten DeepSeek V2 wielu amerykańskich badaczy określiło naprawdę jednym z najlepszych, jeśli nie najlepszym paperem, taką pracą naukową, która w zeszłym roku się pojawiła. A to wszystko z powodu tego, że DeepSeek naprawdę bardzo radykalnie, transparentnie publikuje te swoje wnętrzności, swoich modeli. I w połowie zeszłego roku myślę, że dla wielu amerykańskich badaczy było pewne, że mówimy o graczu, który po prostu będzie się liczył. a nie o jakimś projekcie pobocznym. Tutaj jest właśnie to bardzo mylne zrozumienie tego, czym projekty poboczne w skali milionów albo miliardów dolarów są, bo my nie mówimy o tym, że właśnie czterech chłopków spotyka się na trzy godziny w tygodniu, żeby gdzieś tam pobawić się w Pythonie, tylko mówimy o tym, że np. z tysiącosobowej organizacji wydzielona zostaje grupa 200 osób i to jest Sunside Project i te 200 osób to jest teraz projekt poboczny wielkiego funduszu inwestycyjnego, który na przykład będzie teraz pracował nad modelami językowymi. Szczególnie biorąc pod uwagę to co ty powiedziałeś, tam CEO wprost mówi, że oni biorą udział w wyścigu o te najwyższe cele. To jest jakby startup, on ma pracować zwiennie niezależnie, ale to nie jest tak, że tam jakieś półśrodki będą wchodzić w grę. Tam jest zabezpieczenie jeśli chodzi o pieniądze. Są pewnego rodzaju ograniczenia właśnie na poziomie infrastruktury, o tym jeszcze będziemy mówić. Ale to nie są głupi ludzie i naprawdę z tej iluzji trzeba bardzo szybko tutaj uciec, trzeba się jej pozbyć. Mówimy o najlepszych, naprawdę ambitnych, zgodnie z tym co tutaj czytamy w różnych analizach inżynierach, którzy zajmują się badaniami nad modelami językowymi. No i po prostu w pewnym sensie ta ich praca przynosi efekty. Tutaj mamy kilka takich wypowiedzi osób, które chociażby ze środowiska OpenAI pochodzą, które komentowały to jak wyglądał ten rozwój DeepSeeka. Mamy np. pana Andrew Cara, byłego pracownika OpenAI, który pracę naukową o DeepSeek o V2 określił jako pełną niesamowitej mądrości. Wskazał na wiele różnych usprawnień na poziomie architektury, zarządzania pamięcią itd. które po prostu w tak transparentnie radykalny sposób nie były do tej pory opisywane albo nie były testowane w dużej skali. Mamy też Jacka Clarka, byłego szefa ds. polityki w OpenAI i współzałożyciela firmy Antropic, który twierdzi, że DeepSeek zatrudnia grupę tutaj cytat z translatora niezgłębionych geniuszy. Oczywiście nie trzeba tego traktować w bardzo dosłowny sposób. Chodzi po prostu o to, że jak ktoś śledził branżę, jak ktoś widział to jakie prace naukowe publikuje firma DeepSeek, to tak naprawdę nikogo nie dziwi to, że oni nawet w tym środowisku open source są w stanie wypuszczać takie modele, które teraz na rynku widzimy. Mamy oczywiście tą analogię do Sputnika. Mamy porównywanie tej obecnej sytuacji do sytuacji z czasów zimnej wojny, kiedy to właśnie Na dalekim wschodzie pojawiły się kolejne projekty, które miały podbijać kosmos, które pojawiały się w tym kosmosie szybciej niż w przypadku Stanów Zjednoczonych. Ale tutaj nie ma tak naprawdę sputnika, nie ma tutaj projektu, który wyprzedza w znaczący sposób, powiedzmy, jakość czy niezawodność tych amerykańskich modeli. Mówimy tutaj o takim tąpnięciu na zasadzie, ja to bym nazwał takim właśnie bardziej wake up callem, takim nawoływaniem do przebudzenia się, jakby nawoływaniem do tego, żeby przestać ignorować Chiny, czy ten chiński know-how, niż do tego, że powiedzmy amerykański rynek, amerykańska branża sztucznej inteligencji została wywrócona, została postawiona na głowie. Bo nie mówimy o czymś takim, mówimy po prostu o tym, że odtworzone to, o czym my tutaj mówimy praktycznie przez dwa lata, wykorzystano dobrych inżynierów, wykorzystano infrastrukturę i okazuje się, że w innym kraju również można. Więc dla mnie myślę, że to jest najbardziej istotne. Cała ta narracja, od której zacząłeś, że mówimy o jakimś startupie, o jakimś side projectie, o jakiejś niepozornej grupie ludzi, która wyda jakiś model językowy, który jest rewelacyjny. No to jest po prostu absurd. No tak to trzeba nazwać. To jest absurd. To jest grupa ludzi, która ma kasę, robi co się da na istniejącej infrastrukturze, żeby po prostu tę kasę na konkretną technologię przekuć. I oni tego nie zrobili w styczniu 2025. Oni mają naprawdę znaczący track record ostatnich miesięcy prac naukowych. Co do których branża np. branża w Dolinie Krzemowej mówi, że to jest legit, że to jest sensowne, robicie fajne rzeczy itd. Tutaj od razu powiem, że my z Marcinem planujemy wejść nieco głębiej w temat tych właśnie osiągnięć technicznych, tych innowacji, które DeepSeek wprowadził, ale nie w tym odcinku. Zrobimy tutaj mały twist i zaproponujemy Wam kolejny odcinek w połowie lutego, taki skupiony bardziej na innowacjach, bardziej skupiony na technikaliach, na tym jak w praktyce wygląda współpraca z DeepSeekiem i to będzie początek takiego naszego nowego podejścia do tych podcastów, gdzie to Na przełomie miesięcy będą się pojawiać bardziej biznesowe, można powiedzieć takie geopolityczne, gospodarcze podsumowanie miesiąca właśnie w temacie sztucznej inteligencji, a zawsze po drugim, trzecim tygodniu w środku miesiąca pojawi się takie techniczne podsumowanie dla programistów, dla osób zajawionych tą tematyką, które chcą np. bliżej przyjrzeć się paperom naukowym. Dla nas też to będzie solidna lekcja, ale wydaje się, że są to można powiedzieć takie wątki na różnym poziomie abstrakcji. i chcemy to poukładać nieco inaczej, więc dzisiaj ogólnie analizujemy całe to zamieszanie z DeepSeekiem, pokazujemy wam co to jest za firma, a już za 2-3 tygodnie pokażemy wam co oni tak naprawdę robią, czym cechują się te ich modele.
Marcin: O czym jeszcze warto wspomnieć, to pojawiła się nadalacja że Chiny ogólnie rzecz biorąc były traktowane w ostatnich latach jako gracz drugiej kategorii, że to jest jakiś ich pierwszy sukces w zakresie sztucznej inteligencji i że nikt się totalnie spodziewał, że tam cokolwiek sensownego jest w tym zakresie wytwarzane. To również jest nieprawdą, no bo Chiny Od lat są liderami wręcz, albo idą już naprawdę łeb łeb ze Stanami Zjednoczonymi, tylko w innych sektorach sztucznej inteligencji niż przetwarzanie języka, niż duże modele językowe. No takim świetnym przykładem są chociażby drony. Od lat na YouTubie nie oglądamy pokazów dronów autonomicznych pochodzących ze Stanów Zjednoczonych, tylko z Chin właśnie. Tam widać, że oni są liderami w tym sektorze. Mamy algorytm TikToka, który też gdzieś tam robi wielkie wrażenie i organizacje takie jak Meta, Snapchat nie były w stanie nadążyć za możliwościami Chińczyków. Coraz więcej też mówi się o samochodach elektrycznych, gdzie Chiny wychodzą na prowadzenie. Mamy tutaj jeszcze Tesla, ale Jej przewaga coraz bardziej topnieje. Czy ona faktycznie istnieje? Tego ciężko tak naprawdę powiedzieć. Czy faktycznie w ogóle tak jest? Więc Chiny ten sektor AI od lat mają bardzo rozwinięty. Tam są duże inwestycje państwowe, jest pełne wsparcie. komunistycznej partii Chin, jeżeli chodzi o kontrolowany rozwój AI. O tym bardzo dużo i w sposób ciekawy, intrygujący. Pisał Kai Fuli w swojej książce o AI. Bardzo tą książkę polecam. To jest książka sprzed kilku dobrych lat, która o tym, że DeepSeek nadejdzie, że będzie taki moment i będzie wielkie zdziwienie, że ci Chińczycy gdzieś tam nie są do tyłu i nigdy tak naprawdę nie byli, no to nadejdzie, no i właśnie nadszedł. To też wynika z tego, że w Chinach mamy znacznie więcej ludzi, dzięki czemu mamy znacznie więcej danych i te dane też są znacznie w większym stopniu gromadone ze względu na inne podejście do prywatności, a raczej brak jakiegokolwiek podejścia do prywatności, no bo najzwyczajniej w świecie tam praw broniących jednostkę nie ma, pod tym względem praktycznie żadnych, zwłaszcza jeżeli zrównamy to ze Stanami Zjednoczonymi, a co dopiero z Unią Europejską, która pod tym względem jest świętsza od papieża, ale o tym już mówiliśmy również nieraz, nie o tym. Pogadajmy raz o Chinach, to chyba mimo wszystko będzie w najbliższych miesiącach i latach ciekawszy obszar do analizy pod względem innowacji i wpływania na to, jak technologie na świecie wygląda, chcąc, nie chcąc. No i teraz wejdźmy w ten temat tych 5,5 miliona dolarów, które rzekomo miały być wydane zaledwie na to, aby DeepSeek V3 czy też DeepSeek R1 powstały. Tutaj w kontraście do dziesiątek, setek, tysięcy miliardów dolarów, już różne kwoty gdzieś tam się przerywały przez media. i te tradycyjne, jak i te nowoczesne social media. Ile w tym wszystkim jest prawdy? Na pewno wiemy, zakładając, że Chińczycy w swoim research paperze nie kłamią, że wydali 5,5 miliona dolarów na trening i to jest naprawdę niska kwota co do tego, jakie są standardy. Jakie dokładnie są standardy? Z drugiej strony nie wiemy, bo OpenAI, ani Google, ani Antropic nie dzielą się kosztami, jakie ponoszą przy treningu modeli. Meta również w przypadku swoich open source’owych modeli Lama, bo to też nie jest tak, że DeepSeek jest pierwszym dużym open source’owym modelem. Jak się wielu osobom wydaje, no jakby tutaj akurat meta raczej wiodła Prym od co najmniej roku, chociaż no to też nie były pierwsze modele open source, ale takie znaczące, większe, no to no to tutaj Lama i Meta są trendsetterami. Nie znamy kosztu treningu tych modeli, mamy tylko poszlaki, mamy plotki. Jakie to są poszlaki Przemek, jakie są plotki i też w ogóle skąd ta cała sytuacja, że Chińczycy musieli tak optymalizować te koszta treningu. Czy to wynikało z tego, że oni nie mają kasy, czy to raczej wynikało z innych tak naprawdę przyczyn?
Przemek: Myślę, że warto się cofnąć o kilka lat i powiedzieć ogólnie o sytuacji, czy też o strategii Stanów Zjednoczonych względem sztucznej inteligencji, względem eksportu czipów do innych krajów, względem tego jak Stany Zjednoczone dbają o to, żeby tym liderom pozostać. Tego konsekwencją jest cała ta dyskusja, mianowicie już od dwóch albo trzech lat w Stanach Zjednoczonych obowiązuje coś takiego jak Chips Act. Stany Zjednoczone bardzo restrykcyjnie podchodzą do tematu kontrolowania tego kto, kiedy, w jakim kontekście będzie wykorzystywał ich chipy, a mowa tutaj najczęściej o kartach graficznych Nvidia, po prostu do budowania modeli sztucznej inteligencji. Jeśli chodzi o Chips Act to tam były dwa główne filary, po pierwsze reindustrializację Stanów Zjednoczonych, tzn. Stany Zjednoczone chciały, żeby więcej fabów powstawało po prostu na miejscu, ale chciano też przykręcić kurek innym państwom, które tak samo ambitnie jak Stany Zjednoczone podchodzą do budowania modeli sztucznej inteligencji. Tutaj nie ma co ukrywać, głównie mowa o Chinach. Cały ten chips-axe powodował, że firmy, które produkują czipy, takie jak np. Nvidia, musiały po prostu dostosować swoje strategie eksportowe. musiały lepiej kontrolować to, co dzieje się z ich kartami graficznymi, ile tych kart graficznych trafia na poszczególne rynki. Nie dalej jak na początku tego roku albo pod koniec 2024 dowiedzieliśmy się, że chociażby Polska z perspektywy Stanów Zjednoczonych znajduje się w takiej kategorii państw, które nie będą tymi wiodącymi, jeśli chodzi o dostarczanie chipów ze Stanów Zjednoczonych. Raczej będzie musieli czekać na swoją kolej. Nie ma co ukrywać, że Chiny są tam jeszcze niżej. Chiny są po prostu strategicznym zagrożeniem. No i Stany Zjednoczone poprzez właśnie Chips Act ten kurek chcą skręcać tak bardzo jak to możliwe. Więc z punktu widzenia takiej firmy jak High Flyer, jak fundusz inwestycyjny, z punktu widzenia CEO, o którym mówiliśmy wcześniej, tam problemem nie jest to, że oni nie mają pieniędzy na te chipy, problemem jest to, że oni tych chipów nie mają. Albo mają ich mniej, albo mają ich nie tak dużo jak chciałyby mieć. Oczywiście to jest w pewnym sensie problem kotka i myszki, to znaczy Z jednej strony mamy te blokady ze Stanów Zjednoczonych, z drugiej strony mamy większy nacisk na innowacje, na to żeby właśnie również w Chinach pojawiały się firmy takie jak chociażby Huawei, które potencjalnie konkurencyjne rozwiązania względem NVD będą dostarczać. No i co tutaj można zaobserwować jeśli chodzi o ten CHIPS Act, bo to również przekłada się na to jak DeepSeek podchodzi do tej swojej strategii budowania sztucznej inteligencji. Po pierwsze pojawiły się doniesienia o rozwoju nielegalnego rynku GPU w Chinach, gdzie po prostu przemyca się poszczególne układy do państw, które nie mogą ich dostać bezpośrednio ze Stanów Zjednoczonych, a pomimo tego mają możliwości, mają ten know-how, mają ten kapitał, żeby tę technologię budować. Tak jak Marcin zaznaczył już kilkukrotnie, tak naprawdę te liczby, które się tutaj pojawiają są w pewnym sensie zgadywaniem, wyciąganiem jakichś tam wniosków takich pośrednich, nie ma tak naprawdę jest tego sygnału a propos tego, kto ile tych chipów dostał, jak wygląda właśnie ta relacja między Stanami Zjednoczonymi a Ameryką. Wiemy tylko, że CEO mówi, że nie ma ich tyle, ile chcieliby mieć. No i stąd cała ta dyskusja o innowacji, no bo z punktu widzenia USA, analitycy mieli taką nadzieję, że cały ten Chips Act, całe to skręcenie kurka gdzieś tam spowolni właśnie ten rozwój sztucznej inteligencji. Chiny zostaną gdzieś mniej więcej o jeden albo dwa lata do tyłu względem tego, co dzieje się w Stanach Zjednoczonych. Natomiast okazuje się, że wcale tak nie jest. Okazuje się, że na nieco bardziej ograniczonym sprzęcie, na kartach, o ile dobrze pamiętam, klasy H800, które mają gdzieś mniejsze przepływy danych, transfer danych, da się robić w podobnej jakości modele. No i ta kreatywna chińska inżyniera spowodowała, że tak naprawdę ten CHIPS Act został gdzieś tam na poziomie legislacji. Faktycznie na poziomie importu, eksportu on jest odczuwalny. Natomiast jeśli chodzi o kreatywność inżynierów no to tego już wcale nie widać. No i tutaj trzeba przejść do całego tematu właśnie kosztów treningu. Pewnie tak jak Marcin tutaj rozwiniasz te 5 i pół miliona dolarów które które pojawiły się nie wynika po prostu z tego że właśnie w tym małym projekcie pobocznym na koncie w banku było 6 milionów za 500 tysięcy trzeba było opłacić ludzi a reszta poszła na modele. To jest szacunkowy koszt dotyczący tak naprawdę tych czipów tych kart graficznych do których firma się przyznaje które działały rzekomo przez tyle czasu na ile ta firma się przyznaje i po prostu kropka jakby nie jesteśmy w stanie powiedzieć czy to jest tak naprawdę rzeczywista pula tych czipów nie jesteśmy w stanie powiedzieć których etapów treningu to dostarczyło a zaraz sobie jeszcze rozwiniemy temat tego że tak naprawdę koszty są bardzo złożonym tematem i cały ten proces jest dłuższy niż niż to co widzicie w mediach co ciekawe Mamy komentarz szefa firmy Antropic, Dario Amodei, który również do całego tego zamieszania się odniósł. On powiedział, że tak naprawdę dyskusja o tym, czy to było 5, 6 czy 7 milionów nie ma sensu, jest tak naprawdę drugorzędna, bo właśnie tak jak my tutaj mówimy, nikt z nas tej wartości nie potwierdzi. Natomiast ważne jest co innego, ważne jest, że coś takiego po prostu się stało, ważne jest, że pomimo właśnie Chips Act, ważne jest, że pomimo tych ograniczeń na eksport, Chińczycy są w stanie budować tego typu rozwiązania. No i on tutaj po prostu apeluje o to, żeby konsekwentnie iść tą ścieżką ograniczeń, no bo może się skończyć sytuacją, w której to aż dwa państwa będą mieć frontier modele, a przecież wszyscy chcemy żyć w świecie, gdzie to jedno państwo będzie mieć te modele i będą to Stany Zjednoczone. Tam jest wprost napisane o tym, że mamy ryzyko bipolar world, czyli takiego świata dwupolarnego, a powinien być świat unipolar, gdzie to Stany Zjednoczone mają tego typu rozwiązania. Więc Tak to mniej więcej wygląda. O co apelujemy? Co warto gdzieś tam z tego fragmentu wyciągnąć? Wydaje mi się, że każda taka kwota, która się pojawia powinna być z ogromnym dystansem traktowana. Dario Modej w swoim artykule też pisze, że raczej widzimy sytuację, która jest bardziej dopasowana do trendu niż nie. To znaczy co kilka miesięcy pojawiają się modele o takiej jakości, o takiej niezawodności, które już wcześniej mieliśmy na rynku. kilkukrotnie tańsze i tak naprawdę to zrobił DeepSeek, to znaczy DeepSeek wyrównał osiągnięcia firm ze Stanów Zjednoczonych, wyrównał to na początku roku, zrobił to taniej, nie mamy pojęcia jaki był ten mnożnik jeśli chodzi o oszczędność kosztów, ale raczej to jest po prostu trend i tutaj Daria Modej wskazuje, że paradoksalnie ten drop w kosztach nie jest tak istotny nawet jak to co widzieliśmy kiedy np. Cloud 3.5 Sonnet pojawiał się na rynku, który dziesięciokrotnie obniżał koszty możliwości GPT-4, jakby wcześniej pomimo pomimo tego, że mówiliśmy wyłącznie o rynku amerykańskim, widzieliśmy te większe spadki kosztów, teraz widzimy kolejny taki spadek, ale raczej jest to kontynuacja jakiegoś trendu niż sytuacja, w której właśnie Chińczycy zupełnie wywracają stolik. Natomiast do artykułu zachęcam, artykuł jest ciekawy, nam jakby cała ta sytuacja jest kolejnym argumentem ku temu, żeby to właśnie Stany Zjednoczone wiodły ten prymat, żeby kontynuować tą ścieżkę liderowania. Jest tam też taki piękny argument, że to te kraje demokratyczne muszą być liderami w EIA. Nie możemy dopuścić, żeby kraje niedemokratyczne były liderami w EIA. Więc wartości, wartości, wartości. Cokolwiek to znaczy. Temat kosztów jest dość skomplikowany. Co tutaj masz do dodania, panie Marcinie?
Marcin: Daria Modej też wskazał, ile kosztował sam klot 3,5 sonet. Nie powiedział dokładnie, no bo to gdzieś tam jest tajemnica korporacyjna, ale rzucił kwotą kilkudziesiątek milionów dolarów. Załóżmy, że mówimy o około 50-60 milionach dolarów, no więc zakładając, że Chińczycy byli prawdomówni, co jak oczywiście wiemy w ich naturze jest bardzo silne, no to oczywiście odrobina sarkazmu, no ale jeżeli porównujemy kilka dziesiątek milionów do 5-6, no to mówimy o mnożniku około 10-krotnym. Na social media czy też w mediach tradycyjnych dużo częściej mówi się o mnożniku stukrotnym bądź też tysiąckrotnym nawet widziałem. No więc tutaj też nie popadajmy w jakieś wariactwo. To nie jest aż taka różnica jak sam Dario Amodei wskazał. Chociaż no jak tutaj coś przebija się przez jego komentarz. Ma on jasny punkt widzenia. No też nie da się ukryć, że ma też jasny interes żeby tą sytuację w trochę innym świetle ukazać, ale na poziomie faktów no to Chińczycy zrobili coś zauważalnie taniej, ale to też nie jest tak, że stało się coś nie do pomyślenia. Jeżeli chodzi o różnice w cenach na poziomie API, no czyli to co interesuje nas, no co nas interesują koszta treningu, interesuje nas ile te firmy chcą, żebyśmy zapłacili, no więc za konkurencyjny dla R1 co co brzmi śmiesznie OpenAI musimy zapłacić 15 dolarów za milion tokenów inputu i 60 dolarów za milion tokenów outputu podczas gdy modele R1 faktycznie są zauważalnie tańsze zwłaszcza jeżeli decydujemy się aby dostawcą API był sam DeepSeek no tutaj płacimy pół dolara za milion tokenów wejściowych i trochę ponad 2 dolary za milion tokenów wyjściowych. No więc jest to faktycznie niemalże 30 razy taniej. No o czym musimy tutaj pamiętać, że nie mamy żadnej polityki prywatności, no wszystko idzie prosto na serwer i będzie wykorzystane do dalszego treningu tego modelu. I to nie jest żadne tutaj psioczenie na Chiny i kolesiostwo względem Amerykanów. To można wyczytać w Trends of Service, a w przypadku OpenAI mamy, znaczy domyślnie ten trening jest wyłączony dla danych przesyłanych przez API. Są regulaminy, które to potwierdzają i też jest prawo amerykańskie, które również nas przed tym broni. na poziomie regulaminów i prawa po stronie chińskiej. Czegoś takiego nie ma. Więc ktoś może mówić, no ale Amerykanie na pewno też trenują, nieważne czy masz wyłączone czy nie. Być może tak, być może nie, ale jeżeli ktoś to udowodni OpenAI bądź innym firmom, no to zarząd tych firm będzie w poważnych tarapatach. To się może skończyć wielkimi karami, włącznie z więzieniem. No więc tu przynajmniej jest jakiekolwiek ryzyko dopuszczania się takich machlojek w przypadku DeepSeeka. Takiego ryzyka nie ma. To po prostu się dzieje i nie trzeba tutaj się doszukiwać żadnego spisku. Go po prostu nie ma. To jest zawarte w warunkach korzystania z tej platformy. I zresztą tak samo wygląda to w przypadku aplikacji mobilnej webowej, więc miejcie to na uwadze. zwłaszcza instalując Deepseeka na telefon. Tu akurat już wchodzimy w fazę przypuszczeń, ale TikTok pokazał i gdzieś tam kontrowersje wokół tej aplikacji, że te chińskie aplikacje na ile potrafią wyciągać dane nie tylko z użytkowania, ale ze wszystkiego na około to również to robią. Tak więc ja osobiście Deepseeka na swoim telefonie instalować nie będę, chociaż w wersji webowej korzystam w sprawach, gdzie nie mam obaw dotyczących prywatności i bezpieczeństwa, bo ten model raz jeszcze jest naprawdę dobry, jest szybki i z niektórymi problemami radzi sobie w przypadku moich vibe checków lepiej niż O1. Jest to model na pewno porównywalny, konkurencyjny, z którego na poziomie możliwości jak najbardziej warto korzystać.
Przemek: Tutaj można zrobić proste ćwiczenie pod tytułem otwarcie sobie polityki prywatności, wrzucenie jej do tego czy innego asystenta. Po prostu możecie przeanalizować, które punkty zwracają uwagę, które punkty są niepokojące. Nawet jak sobie otworzycie dwa okienka, czat GPT i DeepSeek, to zobaczycie, że te ustawienia prywatności w DeepSeeku są znacznie bardziej ograniczone, a w polityce prywatności przeczytacie, dlaczego tak jest i raczej ta firma nie zamierza tego zmieniać, więc bierzcie to pod uwagę. to też jest taki kamyczek do ogródka tych wszystkich, którzy piszą, że np. aplikacja trenduje, rozwiązanie trenduje, nowy chart GPT, spoko, tylko że z tego nikt nie będzie na zachodzie w dłuższej perspektywie korzystał.
Marcin: I też co jest istotne, bo tak naprawdę nie wiemy, czy DeepSeek na tym swoim API jakkolwiek będzie zarabiał w tak atrakcyjnych cenach. Bardzo jest możliwe, że ten obecny pricing wiąże się z tym, aby być bardzo atrakcyjnym, aby mimo wszystko zachodnich użytkowników zachęcić tą niską ceną i w ten sposób nazbierać duże ilości danych niezbędnych do treningu dalszych wersji modelu. Oni po prostu biorą na kasę TNT koszta, palą jakieś tam ilości pieniędzy. Jak dokładnie jest tego? Nie wiemy. Tym niemniej zrobiłem research, bo już na niektórych platformach cloudowych ten model na zachodzie jest dostępny i tamte pricingi wyglądają troszeczkę inaczej. Nadal są atrakcyjne względem O1, ale nie tak bardzo. Średnio za milion tokenów wejściowych płacimy 5 dolarów. podczas gdy za output płacimy 8 dolarów, takie jak gdzieś tam kwoty się pojawiają. Trzeba oczywiście wliczyć marżę tych firm chmurowych, które też na tym wszystkim chcą zarobić, no ale ten pricing już tam nie jest tak atrakcyjny. Może chcą zbić pieniądze na tym całym hype, a może ten model wcale aż taki tani w działaniu nie jest, jeżeli nie mamy też turbo dostosowanej do niego infrastruktury. No i nie chcemy brać na klatę kosztów, żeby nazbierać dane, więc tutaj tak do końca nie wiadomo czy ten model faktycznie jest tak zoptymalizowany względem o jedynki, która się tutaj wydaje absurdalnie droga i też druga rzecz zobaczymy jaki będzie pricing o trójki, gdzie OpenAI mogło już prowadzić istotne optymalizacji na poziomie wydajności i kto wie, może O3 mini będzie oferowało podobną wydajność w znacznie niższej cenie z takimi samimi bądź lepszymi wynikami. Jeszcze może też na poziomie szybkości będą tutaj istotne usprawnienia. To pewnie się okaże w najbliższych dniach bądź też tygodniach, no bo gdzieś tam w okolicach końcówki stycznia ta O3 mini miało się pojawić jeszcze. Czekamy jeszcze tego na 30 stycznia, kiedy to nagrywamy. Nie ma. Jak to wszystko przekłada się na polskie realia? Skoro Chińczycy zrobili to za 5 milionów, wytrenowali taki super model, no to może będziemy mieli jakiegoś Bielika V10 R18, który za polski budżet powstanie i również będziemy zbierali takie laury. No tak się składa, że te 5 milionów dolarów na trening to jest wierzchołek góry lodowej, z jakim trzeba się liczyć, jeżeli chodzi o finanse, kiedy tworzymy tego typu modele, bo nawet jeżeli trening kosztował stosunkowo niewiele, co nadal no 20 milionów złotych, to jak na polskie warunki naukowe, to i tak jest ogrom pieniędzy, ale to i tak jest wierzchołek góry lodowej, bo ogromne koszta są też w innych etapach tworzenia tych modeli. na poziomie zbierania i przygotowania danych, na poziomie opracowania architektury modelu, na poziomie infrastruktury i sprzętu, na poziomie ewaluacji i testowania tych modeli i na poziomie ich wdrożenia i utrzymania. Więc nawet jeżeli jesteśmy tak sprawni jak Chińczycy, to koszt całego DeepSeeka V3 zapewnie jest wielokrotnie wyższy niż sam koszt treningu i tu mówimy o kwotach rzędu kilkudziesięciu miliardów, czy tam milionów, przepraszam, kilkudziesięciu milionów dolarów, może nawet właśnie raczej gdzieś tam liczonych już w setkach. Takie są całościowe koszty, a tutaj oczywiście Nie mamy dokładnych informacji, ani zachodnie, ani chińskie firmy się tym nie chwalą. Tu po prostu jedna firma się pochwaliła kosztem treningu i jest to jak najbardziej. Okej, no i teraz Przemku. Ten temat z jednej strony bardzo istotny, bo najbliższy faktom, a z drugiej strony również wprowadzający wiele osób w takie błędne, i życzeniowe myślenia na temat tego, jak będzie wyglądała rzeczywistość w 2025 roku. Mianowicie to, że DeepSeek V3 i R1 są modelami open source. Co to tak naprawdę znaczy i jak to się odbije na naszej codzienności, jeżeli w ogóle?
Przemek: To zanim przejdziemy do open source, to ja bym jeszcze chciał się odnieść do tych kosztów, bo wydaje mi się, że jest niezarowe prawdopodobieństwo tego, że po tym twoim fragmencie kilku ze słuchaczy może odnieść takie wrażenie, W ogóle nie ma sensu interesować się tym tematem AI, skoro mamy takie koszty liczone w milionach albo w dziesiątkach milionów. Ja tutaj podkreślę, że mówimy o procesie, który ma skutkować wytworzeniem własnego modelu językowego. To jest takie przedsięwzięcie, na które naprawdę mało kto się decyduje, bo mamy gotowe modele, które można po prostu fine tune’ować. O tym warto pamiętać, więc to nie jest absolutnie tak, że każda firma buduje swój model. Mówimy raczej o tym, że o ile co jakiś czas np. w mediach pojawia się pomysł takiej inicjatywy, żeby utworzyć właśnie polski model językowy, To tak jak Marcin wspomniał, temat jest bardzo, bardzo złożony. Dosłownie w tym tygodniu chyba pojawia się informacja, że budżet tego nowego instytutu Idea z NCBR, który ma być gdzieś tam zaopiekowany pod nowymi rządami, to ma być dokładnie 20 milionów złotych. Więc w te 20 milionów złotych musimy opłacić kadrę, pewnie przygotować infrastrukturę, pewnie zabukować jakieś projekty i gdzieś tam będziemy pracować nad polskim modelem językowym. Zobaczymy, mam pewne Przypuszczenie. No ale dobra, ty Marcin wrzuciłeś temat Open Source, więc pogadajmy przez chwilę o tym Open Source. Jak to wygląda? Pamiętam, że był jeden odcinek, gdzie my odnosiliśmy się do naprawdę bardzo fajnej, ciekawej klasyfikacji tego, pod iloma wymiarami można oceniać modele językowe, jeśli chodzi o Open Source. I tam było naprawdę 15 czy 20 kolumn, które pokazują, które elementy wytwarzania takiego modelu językowego. są tak naprawdę Open, a które są Closed. Możemy wyjść od, można powiedzieć, tego ekstremum, czyli od modeli zamkniętych, rozwijanych przez firmy takie jak OpenAI i Antropic. Tam bardzo trudno już teraz oszczegółowe technical papery, trudno oszczegółowe informacje o tym, jak wygląda proces przygotowania takiego modelu. My dostajemy produkt końcowy dostępny przez API, to znaczy nie możemy pobrać GPT-4.0 gdziekolwiek, nie możemy pobrać Closed 3.5 Sonata gdziekolwiek, mamy API, niektóre firmy te modele wystawiają. W przypadku DeepSeeka wygląda to inaczej i znowu tutaj jest pełno gwiazdek, no bo jak powiemy, że wygląda to inaczej, to pewnie ten model można pobrać. Więc tak, po pierwsze prawdą jest to, że kod, modelu i wagi są opublikowane, można je znaleźć w wielu różnych miejscach, można je pobrać i teoretycznie można je uruchomić. Są inicjatywy np. na Hugging Face, gdzie rozpoczął się proces właśnie odtwarzania tego modelu, o ile pamiętam nazwać to Open R1, są inicjatywy skupione na tym, żeby bardzo szczegółowo analizować całą architekturę. To wynika z tego, że w przypadku DeepSeeka ten open source to jest po prostu większa transparencja, jeśli chodzi o szczegóły techniczne. Jeden z minusów, który już tutaj można zauważyć, dotyczy chociażby danych treningowych. To wcale nie jest tak, że właśnie firma DeepSeek opublikowała od A do Z cały proces pracy nad tym modelem i dała nam chociażby zestaw danych treningowych, które wykorzystano do zbudowania tego modelu. Tak naprawdę dostaliśmy informację o tym, jak duży był to zbiór, ile w nim tokenów zawarto, natomiast tak jak Ty Marcin wspomniałeś, no częścią tego ukrytego budżetu jest to zbieranie, przygotowywanie danych i te dane po prostu nie leżą na ulicy, jest to asset, firmu, o który się dba, na który się hucha i nie jest to wcale takie oczywiste, żeby go otworzyć, stąd też wielokrotnie mówiliśmy chociażby o problemie np. danych syntetycznych czy tego, że w internecie w cudzysłowie zaczyna tych danych brakować, natomiast Można pomyśleć o tym temacie uruchamiania tego gotowego produktu, tego gotowego efektu pracy firmy DeepSeek. No i tutaj widzę w naszych notatkach kilka takich prognoz, kilka takich obliczeń, które pokazują na co tak naprawdę moglibyśmy się zdecydować. Marcin, ja może tutaj oddam głos, bo tutaj przygotowywałeś te specyfikacje. Poza samymi liczbami, no ja bym zapytał tak jak słuchacz naszego podcastu, czy można to uruchomić, czy nie można tego uruchomić.
Marcin: No i odpowiedź brzmi, jak to programiści lubią odpowiadać, to zależy. Ja widziałem post jednego z moich nieulubionych twórców AI-owych na LinkedIn, w którym w jakiejś atmosferze absolutnej ekscytacji i fety wobec chińskiej myśli technologicznej pojawiło się stwierdzenie, że DeepSeeka R1 można uruchomić na domowym komputerze, a już niedługo na telefonie. Tego typu stwierdzenia pokazują, że mamy do czynienia z osobą, która nigdy żadnego modelu na swoim komputerze nie uruchomiła i nie ma większego pojęcia o czym mówi, albo też nie zdaje sobie sprawy jak wygląda przeciętny domowy komputer i jak daleko mu do możliwości uruchomienia tego typu modeli. Jakie są fakty? Aby uruchomić DeepSeeka R1 z sensowną wydajnością, czyli chociaż kilkudziesięciu tokenów na sekundę, czyli kilku słów na sekundę, czyli to jest znacznie, znacznie wolniej niż to, co mamy na trzeciej GPT, ale jest to chociaż prędkość, która sprawia, że da się z tym jakkolwiek pracować, to musimy skorzystać z wersji skwantyfikowanej, która będzie miała wpływ na wydajność, chociaż Pełne formy kwantyfikacji nie mają istotnego wpływu na wydajność. Możemy mówić, że to będzie bardzo bliskie temu, co mamy do dyspozycji przez API i aby ten model w takiej wersji uruchomić, to musimy mieć komputer tak od 20 do 30 tysięcy złotych z jednymi z najlepszych kart graficznych do gamingu, z dużą ilością pamięci RAM, ze świetnym procesorem, ze świetnym dyskiem twardym, z kozackim chłodzeniem, z dobrym zasilaniem, więc to nie jest domowy komputer, to jest top of the top tego, co możemy mieć w domu, kiedy mamy naprawdę duży budżet, no to wtedy ten model faktycznie uruchomimy i z jakąkolwiek sensowną wydajnością on będzie działał na nasze domowe potrzeby, na przykład jeżeli chcemy programować i gdzieś tam do takiego modelu pukać, zamiast pukać do API. Ale jeżeli przechodzimy do zastosowań firmowych, no to sytuacja wygląda jeszcze inaczej, no bo aby na przykład taki model działał w naszej firmie programistycznej, w naszym software house, nie chcemy naszego kodu i naszych klientów wysyłać do chmury, do jakichś tam zewnętrznych firm, tylko powiedzmy chcemy, żeby to wszystko zostawało u nas. No to musimy liczyć się z wydatkami na serwer, w wysokości kilkuset, albo nawet wchodzących w miliony złotych. Takie gdzieś tam wydatki będzie trzeba plus, minus ponieść. Potrzebujemy najwyczajniej w świecie kart graficznych i to kilku klasy H100, czyli tych topowych, żeby 100 programistów podczas pracy obsłużyć i aby właśnie ta wydajność była jakkolwiek. Dobra, jedna taka karta kosztuje 90 tysięcy złotych, jak właśnie Przemek mi tutaj podrzucił i też te karty są ciężko, trudno dostępne, więc o takich kosztach mówimy. A jeżeli chcemy, żeby nasza aplikacja SaaS, która będzie miała kilkaset, kilkatysięcy użytkowników, gdzie to obciążenie będzie jeszcze większe niż w przypadku zapytań ze strony programistów w naszym Software House, to już wchodzimy naprawdę w grube setki, grube miliony i wydatki na energię na poziomie 50-100 tysięcy złotych miesięcznie. Więc czy teoretycznie Można Ripsika uruchamiać na potrzeby biznesowe, na lokalnej infrastrukturze? Można, tylko trzeba się de facto stać firmą hostingową, serwerową, z wyspecjalizowaną infrastrukturą, z zespołem IT, który będzie się tym zajmował. Oczywiście, czy to jest niemożliwe? Jest możliwe. Ale czy to jest pragmatyczne podejście dla większości firm? Zdecydowanie nie. Większość firm nadal będzie korzystała z tych usług poprzez API. Ja tutaj zachęcam mimo wszystko do skorzystania z usług firm zachodnich, a nie z samego DeepSeeka, który ma co prawda bardzo atrakcyjne ceny, ale musimy się liczyć z tym, że tutaj na pewno te nasze dane lecą prosto do dalszego treningu i być może do komunistycznej partii Chin. Tego tak naprawdę nie wiemy. A jeżeli chodzi o te lokalne wersje modelu, no to też dużo ludzi mówi, a ja uruchomiłem. Ja uruchomiłem DeepSeeka R1 w jakiejś tam wersji półtora miliarda parametrów. O tym więcej w tym odcinku technicznym, co też pisałem już kilku osobom na LinkedInie. To nie jest DeepSeek R1, to są destylowane wersje oparte o modele QN bądź też Lama. Znacznie mniejsze to są małe modele, które zostały sfinetunowane, wytrenowane w oparciu o DeepSeeker 1, co faktycznie zauważalnie wpłynęło na ich wydajność, ale nadal mamy do czynienia z inną architekturą, architekturą tych modeli bazowych, więc nazywanie ich DeepSeekami jest błędem na poziomie technicznym i sama nazwa One się nazywają DeepSeek R1, DeepSteel i potem nazwa tego modelu bazowego. Nie ma żadnych twardych standardów w branży, jak takie modele się powinno nazywać. No ale ta nazwa wiele osób, co mnie nie dziwi, wprowadza w błąd, że ktoś tutaj na telefonie DeepSeeka R1 uruchamia. No nie, nie uruchamiasz DeepSeeka R1 tylko jakąś tam lepszą wersję Quena. która mimo, że robi wrażenie, no to daleko jej do tego modelu bazowego, o którym tutaj z Przemkiem od godziny prawie rozmawiamy. I też co ważne, to też nie jest tak, tutaj Przemek mi słusznie zaznaczył, o czym nie mówiliśmy, że to jest pierwszy duży, open source’owy model. Takim pierwszym dużym, open source’owym, zaawansowanym modelem była Lama 3 od Mety, która wyszła w pierwszej połowie zeszłego roku. To oczywiście był model nie tak z wysokiej półki jak ten, chociaż w momencie premiery również równał się ze State of the Art. Teraz został trochę w tyle, ale jak wiadomo, Meta pracuje nad Lamą 4. Podobno na pokładzie Mety jest mała panika związana z Deepseakiem. Pytanie, czy oni z Lamą 4 są do tyłu względem Deepseaka, czy też są na podobnym poziomie, a premierę mieli zaplanowaną za kilka miesięcy. Jeżeli tak, to to i tak będzie lipa, bo już wszyscy oczekują więcej niż Deepseak. Podobno w Mecie jest gorąco. za sprawą tego, co tu DeepSeek zrobił i jak to wpływa na premierę Lamy 4. Szczegóły są nieznane, ale gdzieś tam to meta tak naprawdę jest pionierem dużych modeli open source. DeepSeek tak naprawdę poszło ich śladami. Tyle jeżeli chodzi o ten open source. Więc mamy tutaj teoretyczną możliwość, jeżeli pracujesz albo jesteś szefem firmy, która ma bardzo dużo pieniędzy i jednocześnie bardzo duże wymagania co do bezpieczeństwa i regulacji, jakaś branża fintech, medtech, no to może taka inwestycja w infrastrukturę lokalną pod modele pokroju DeepSeeka jest sensownym pomysłem. Dla większości firm to jest tak naprawdę gruszka na wierzbie, niby może wyrosnąć, ale czy to ma sens? Nie wydaje. A na końcu może wejdźmy w temat tego, że też często poruszany, czyli cenzury tego modelu, że ten model jest ocenzurowany, tutaj dużo ludzi w tym widzi duży problem dipsika. Przemek, co ty o tym sądzisz? Ja tutaj jakąś opinię również mam.
Przemek: No bardzo mi te historie a propos cenzur przypominają te ciekawostki, te anegdoty związane z liczeniem liter R w poszczególnych słowach, strobery i tak dalej i tak dalej. To znaczy wynajmujemy, po pierwsze włączamy jakieś widzenie tunelowe, zapominamy o całym bożym świecie, zapominamy o całym kontekście, znajdujemy jakiś jeden przykład tego kiedy te modele nie działają i teraz naginamy te odpowiedzi do jakiejś wysokopoziomowej tezy, która ma coś konkretnego udowodnić. No w przypadku DeepSeeka oczywiście Bardzo szybko weszliśmy na poziom dyskusji o cenzurze, cenzurze krajowej, cenzurze państwowej, która nie pozwala chociażby pytać o wydarzenia na pewnym słynnym placu, nie pozwala pytać o reżim, o ustrój polityczny w Chinach. Wczoraj też robiłem testy. Tak naprawdę trudno się dowiedzieć czegokolwiek co jest związane z chińską polityką w obecnych czasach. Pomimo tego, że tam widzimy cały dość szczegółowy łańcuch myśli, możemy sobie to podejrzeć, nagrać i odtworzyć, to na końcu dostajemy zwrotkę właśnie z jakiegoś tam cenzora, to oczywiście ma pokazywać, że te Chiny są złe, że Chiny cenzurują dyskusję i Chiny nie dopuszczają poszczególnych tematów w konwersacjach ze sztuczną inteligencją, co jest zupełnie przeciwne względem tego, co widzimy w modelach takich jak OpenAI, w modelach od firmy Antropic, tam naprawdę można o wszystkim porozmawiać, można zadać dowolne pytanie, nie ma tam żadnych mechanizmów zabezpieczających. Oczywiście tak po prostu nie jest, Pierwszy przykład z brzegu, też tutaj na osobnej karcie go wykonałem. Pewnie ostatnio słyszeliście o executive orders Donalda Trumpa. Nie chcę wchodzić jakby w opiniowanie tego, co nam się pojawiło. Natomiast Donald Trump stwierdził, że teraz oficjalnie w Stanach Zjednoczonych będą dwie płcie. Ja na przykład jestem w stanie powiedzieć, że dla mnie to jest rozsądne, zrozumiałe i zgadzam się z takim stwierdzeniem. Ale spróbujcie zapytać chat GPT o to, ile płci. I zobaczcie, czy tam jest jakiś narzut kulturowy. Zobaczcie, czy on nie stara się właśnie zaprezentować tego tematu w taki sposób, żeby dopasować go do jakichś lokalnych okoliczności. Bo pewnie jak w Chinach zapytacie o to, ile jest płci, no to usłyszycie, że są dwie płci. A ile jest płci na zachodzie? No it really, really depends. Więc mamy taki kontrprzykład. Takich kontrprzykładów można bardzo łatwo znaleźć. Jeszcze wiele. My tutaj w notatkach mamy żarty z grup etnicznych, Postarajcie się o to, żeby na temat każdej grupy, która przyjdzie Wam do głowy, usłyszeć żarty. Z Polaków łatwo żartować. Natomiast myślę, że już z naszych przyjaciół z Izraela wcale nie tak łatwo żartować.
Marcin: Tutaj w tące, bo to ja to przytoczyłem, to też często się przewija i świetnie pokazuje. Ja to powiem wprost, bo też robiłem testy. Kiedy prosimy Chata GPT o żarty z Żydów, to dostajemy nagane, że nie można z takiej grupy żartować i on odmawia współpracy. Kiedy poprosimy o żarty z nigeryjczyków, dopiero dostajemy upomnienie, że tutaj trzeba pamiętać o tym, żeby się nie śmiać z ludzi na tle rasy i etnicznym, ale żarciki jakieś tam dorzucę. Związane np. z tym, że nigeryjczycy są bardzo oszczędni i przedsiębiorczy. A kiedy prosimy o żarty z Polaków, to bez żadnej reprymendy, bez żadnego wstępu leci cała lista. Więc jak widać, w czasie GPT są również równi i równiejsi i to pokrywa się gdzieś tam z myślą w Stanach Zjednoczonych, zwłaszcza tą progresywną. Jestem ciekaw, jak to będzie ulegało zmianom w najbliższych latach, jak ta Cenzura zachodnia widoczna w modelach będzie się zmieniała, no bo tutaj Mark Zuckerberg gwałtownie zmienił swoje poglądy polityczne i ich wpływ na platformę jaką jest Meta. To ciekawe, czy to się odbije też na LAM-ie, która również podlega cenzurom martego rodzaju blokady, czy pytania, które kiedyś nie były rozwojone już w LAM-ie cztery rozwojone będą. No jestem ciekawy. Tym niemniej, gdzieś tam wyciągając wniosek, to akurat jest tak naprawdę najmniejszy problem z dipsikiem, że on cenzurze podlega, bo zachodnie modele również tej cenzurze podlegają, tylko pod innymi względami, które dla nas się wydają wrażliwe i niewygodne. Chińczycy robią to samo z własnej perspektywy i akurat stosowanie podwójnych Jako stosowanie podwójnych standardów, jakieś święte oburzenie, na to wydaje mi się nieszczególnie trafione, jeżeli chodzi o jakiś wektor krytyki względem DeepSeeka. Bo już domykając ten temat, to są naprawdę dobre modele na poziomie State of the Art amerykańskim. Nie są to modele przełomowe, są to modele, które są blisko, bądź też wręcz na podium. Widać, że Chińczycy jeżeli chodzi o LLM-y nadrobili zaległości, jeżeli takowe mieli i będą w dalszych miesiącach, w dalszych latach istotnymi graczami w tym całym zamieszaniu. Też jakie ja mam wnioski, zaraz poproszę o to samo ciebie Przemek. Wiele osób, które uchodzi za ekspertów Nie mówię tutaj tylko o jakichś AI influencerach z LinkedIn, bo tego typu osoby to raz w tygodniu pokazują, że nie do końca mają pojęcie, o czym mówią. Ale też osoby, które naprawdę mają stanowiska, tytuły. Wiele tych fake newsów, wiele tych przepuszczeń podawało jako fakty. Naprawdę to dla mnie był taki trochę waking up moment, jak bardzo akurat w tej sferze wiele osób nie ma pojęcia i nie różni się od przeciętnego Jana Kowalskiego, który po prostu czyta na główek, po czym niespecjalnie myśląc krytycznie podaje go dalej jako prawdę. Tak więc… Tutaj taki apel ode mnie, to, że ktoś ma PhD przed imieniem, albo to, że ktoś ma jakieś tam kilka pozycji w CV, wcale nie sprawia, że za was zrobi research, że za was będzie myślił. Te osoby, tak jak my zresztą, mają inne swoje zajęcia, mają rodziny, mają etaty i często nie mają albo czasu, ani dyscypliny intelektualnej wystarczającej, aby wszystko zweryfikować. i aby po prostu dzielić się jedynie sprawdzonymi i sensownymi informacjami. Mam nadzieję, że nam się udało zrobić dobrą robotę. Dużo włożyliśmy pracy i wysiłku, żeby powiedzieć, co jest faktem, co jest przypuszczeniem. Ja tu czułem taką odpowiedzialność, żeby po prostu tę robotę dla was zrobić. Czy, Przemku, tu masz jakieś przemyślenia do tej całej sytuacji? Jak ty to wszystko widzisz?
Przemek: Ja mam jedną anegdotkę i ogólne przemyślenia. Anegdotka a propos influencerów. Spotkałem się z kontem, które śledzi 100 tysięcy followersów, które nazywa siebie ekspertem w tej branży, który zadaje otwarcie pytanie, jak to jest, że jeden model można nauczyć danym już z drugiego modelu i o co chodzi z tą całą destylacją. Dla wielu osób może to się wydawać pytaniem takim jak każdy inny, natomiast Wydaje mi się, że brakuje jakiegoś rodzaju fundamentów albo takiego szerszego spojrzenia na całą tę dyskusję, którą tutaj widzimy i stąd po prostu bierze się potem rozmuchiwanie niektórych pojęć. My też bardzo ostrożnie podchodzimy do opowiadania o osiągnięciach technicznych, o tym co zmienia DeepSeek na poziomie architektury, bo po prostu chcemy się do tego przygotować. Natomiast wiele osób po prostu jak czyta o modelach destylatach to pisze, że jest to zupełna nowość. Nie było nigdy wcześniej czegoś takiego jakby Nie wiemy o tym, że LLM można fine tunować na zasadzie zbierania pary input, output z dużego modelu i używać tego w małym modelu i tak dalej i tak dalej. No i jakby to jest OK. 100 tysięcy osób kogoś takiego śledzi i jakby pozostawiam to do waszej oceny. Natomiast to co chciałem powiedzieć jakby w takim szerszym kontekście. Mnie tutaj najbardziej gdzieś tam dotknął ten wpis, ten komentarz właśnie Dario Amodei z Antropica, bo tutaj kolejny raz widać jak jak interes Stanów Zjednoczonych jest przykrywany taką naprawdę nieszczerą narracją o wartościach i demokracji. Jakby bardzo na naszym poletku polskim to widać, kiedy właśnie i nasze elity i nasi eksperci, no też można powiedzieć, jak to też się czasami mówi, wchłaniają czy też przejmują tą zachodnią narrację, myśląc, że to jest narracja nasza polska, że to jest właśnie w interesie Polaków jest to, żeby coś tam, coś tam, coś tam, bo demokracja, jakby to nie znaczy nic, to jest absolutnie jakby mowa trawa, to jest tak naprawdę nakładka na jakiś interes konkretnego państwa. Nam to wystarczy bardzo często, żeby przeklejać jakieś stwierdzenia i żeby stwierdzać, że na przykład kibicujemy jednemu albo kibicujemy drugiemu. Ja naprawdę bardzo, bardzo pozytywnie przyjąłbym taki komunikat, gdzie to po prostu szefowie firmy XYZ mówią, że słuchajcie, wchodzimy na ring, bijemy się, w interesie stanów jest to, żeby być liderem i tak dalej, Nie mieszajmy jakiejś historii o demokracji, nie mieszajmy jakiejś historii o reżimach i tak dalej. I to na poziomie cenzury, i to na poziomie jakichś nacisków, lobbingu między krajami, na poziomie geopolityki. Widzieliśmy wielokrotnie, że demokracja jest wtedy, kiedy po prostu nasi wygrywają i koniec. Bardzo mnie to irytuje, że kolejny raz tutaj w takich dyskusjach technologicznych ta demokracja się pojawia, bo to jest jakieś takie wycieranie sobie gęby czymś, miało jakieś założenie, miało czemuś służyć, a teraz jest po prostu takim wytrychem do tego, żeby te swoje argumenty gdzieś tam przeforsować. Więc możemy komentować to, co dzieje się w Stanach, możemy komentować to, co dzieje się w Chinach. Dobrze byłoby mieć dystans do komunikatów z obu tych obozów i na końcu trzeba pamiętać, że jest jakiś interes polski. Bijmy się o to, żeby budżety były coraz większe. Realnie oceniajmy politykę prywatności tych rozwiązań. Może oburzajmy się tak jak my tutaj na przykład na jakieś ograniczenia, na nadregulacje na przykład z punktu widzenia Unii Europejskiej, ale nie wrzucajmy do dyskusji o technologii właśnie tam wartości, demokracja i tak dalej. Kurczę, tam naprawdę nikomu nie o to chodzi. Tam jest liczenie kasy, Excel, ma być na zielono, jakby ma być jakaś tam linia porozumienia z rządem, o to chodzi, nie? A cała reszta to jest jakaś tam bajka, którą niestety na wielu kupuje, to ja bym na to tutaj zwrócił uwagę.
Marcin: To jest dobry punkt, zwłaszcza w ustach szefów korporacji, którzy po prostu mają interesy finansowe własne i względem inwestorów, aby po prostu było na zielono, tak jak powiedziałeś. Ja jakąś tam wiarę w zachodnie wartości posiadam i gdzieś tam im kibicuję i na ich rzecz chciałbym też w swoim życiu działać. No tym niemniej z ust akurat CEO korporacji, no to faktycznie nie jest dla mnie merytoryczny argument. Chociaż również hołdyrenne składane przez niektórych ludzi, jakoby teraz kłanialiśmy się w pas Amerykanom, a może jednak kłaniajmy się Chińczykom i bądźmy ich po prostu chłopcami na posyłki, bo oni jednak też mogą i może lepiej nas przed Rosją ochronią, no to moim zdaniem świadczą równie nisko o osobach.
Przemek: Które… Trzeba się skupić na robocie. Trzeba się skupić na naszych lokalnych inicjatowach.
Marcin: Dokładnie. I o dbaniu o polskie interesy. Czasami one są bliższe Amerykanom. Ogólnie przez ostatnie lata raczej były. Wydaje mi się, że nadal są. Ale nie ma co wierzyć w geopolityczną przyjaźń. Jeżeli faktycznie okaże się, że Chiny Polsce sprzyjają i przyjaźń z nimi będzie korzystniejsza, to idźmy w tym kierunku. Nie wydaje mi się, żeby Anno Domini 2025 akurat tak było. Historia pokaże jak będzie. Dobra, przejdźmy jeszcze przez dwa tematy. To miał być szybki, półgodzinny odcinek. Jesteśmy już jak zwykle z godziną na zegarze, ale mamy jeszcze dwa istotne tematy, które omówimy szybko dla Was i domkniemy ten odcinek. Pierwszym z nich jest Stargate, czyli projekt, który już był zapowiadany, o którym wspominaliśmy w poprzednich odcinkach, ale który już został ogłoszony, czyli inicjatywa przewodzona przynajmniej na poziomie takim medialnym przez Donalda Trumpa, przez niego ogłoszona. mająca na celu rozwój infrastruktury sztucznej inteligencji w Stanach Zjednoczonych. Chociaż Administracja Rządowa faktycznie wspiera ten projekt, to de facto jest to bardziej przedsięwzięcie prywatne, na którego czele stoi OpenAI, Oracle i SoftBank. Czyli te firmy będą budowały wielkie data center, na które ma być przeznaczone przez następne 3 lata aż 500 miliardów dolarów. Gdzieś tam głównym dostawcą tego kapitału ma być właśnie firma SoftBank, której liderem, szefem jest Masayoshi Son, czyli taki legendarny inwestor, który słynie z tego, że bardzo duże ryzyko ponosi w swoich inwestycjach, wykłada ogromne ilości pieniędzy często bazując na swojej intuicji niż na jakichś twardych danych. No tak się składa, że kilka razy mu się udało odnieść wielkie zwycięstwa. To była Alibaba i Arm na tym dwukrotnie przebił zwrot inwestycji przekraczający 100 miliardów dolarów. No co go czyni legendarny inwestorem na swój sposób, bo bardzo mało kto może się takim zwrotem z inwestycji pochwalić na poziomie nominalnym. ale jednocześnie też może się pochwalić wieloma nietrafionymi inwestycjami w projekty skamerskie, wręcz można tak powiedzieć. Jednym z nich był WeWork, który był strasznie nadmuchany od tej strony kapitałowej, no i wiele po nim nie zostało. Jak i Terranos, gdzie pani prezes obecnie można wysłać w pozdrowienia z zakrat więzienia. Więc tutaj Masayoshi-san Jedni go nazywają legendą, a niektórzy człowiekiem, który ma dużo szczęścia i niewiele więcej. Więc ten człowiek od strony finansowej ten projekt napędza, od strony takiej operacyjnej głównym beneficjentem ma być OpenAI, a infrastrukturę ma zapewniać firma Oracle. Cel, no to oczywiście rozwój, umocnienie pozycji Stanów Zjednoczonych pod postacią OpenAI, jeżeli chodzi o prymat w sztucznej inteligencji. No ale ten projekt, mimo swoich wielkich ambicji, no też wiąże się z jakimiś kontrowersjami. Przemek, czy tutaj słyszałeś o tym, co o tym wszystkim na przykład sądzi Elon Musk, ile gdzieś tam też pieniędzy jest na stole. I czy to faktycznie te 500 miliardów się zmaterializuje? Jak to realnie wygląda?
Przemek: Wydaje mi się, że Elon Musk będzie tutaj takim głównym generatorem stresu i presji i niepewności wokół tego projektu. Z prostego powodu, Elona Muska nie ma w grupie tych osób i XAI nie ma w grupie tych organizacji, które za tym Stargate’em stoją. Elon Musk jako osoba bardzo blisko Donalda Trumpa prawdopodobnie na takie inicjatywy też oszczy sobie zęby. Wiemy, że grok 3 jest budowany na czymś co do tej pory nazywało się największym datacenter na tym super klastrze kolosus. Tam miało być 100 tysięcy kart graficznych H100. Natomiast tutaj wydaje się, że mamy coś jeszcze głośniejszego. No i Elon Musk nie zamierza bawić się w polityczną poprawność. Bardzo szybko te wpisy, które wychodziły i z profili rządowych i z profili Openye i sama Altmana skontrował, prostował mówiąc o tym, że te fundusze, te organizacje, które mają brać udział w tej inicjatywie po prostu nie mają tej kasy. No te informacje, które pojawiają się w sieci mówią o gotowości na poziomie gdzieś mniej więcej właśnie od 10 do 30 miliardów dolarów dochodzących do 100 miliardów dolarów. Natomiast ta całościowa kwota inwestycji 500 miliardów dolarów przynajmniej dla mnie jest bardziej takim celem na poziomie ambicji niż czymś co już dzisiaj ma jasny plan czy też jasną roadmap. Na pewno tam gdzie duże pieniądze, tam dużo kontrowersji. Mamy na pewno też zainteresowanie Chin. Bank of China, państwowy bank ogłosił duże wsparcie dla chińskich firm, które będą się zajmować sztuczną inteligencją, niejako w formie takiego odbicia odpowiedzi właśnie na ten Stargate. Tutaj Bank of China chce zainwestować 140 miliardów dolarów właśnie na to, żeby firmy z tego sektora finansować, żeby one były gotowe na te wyzwania budowania modeli nowej generacji. i w pewnym sensie, żeby równoważyły to, czym ten Stargate ma być. Sam Altman na swoim profilu wrzucił już klip z placu budowy. Widać, że Stargate powstaje. Natomiast zobaczymy, jak będzie wyglądał ten progres, czy dojdziemy do tego poziomu 500 miliardów dolarów. Coś mi się wydaje, że i Colossus, który wychodzi gdzieś tam spod ręki Elona Muska i właśnie Grog trójka troszkę mogą zamieszać. Jeszcze na pewno warto też obserwować relacje z Microsoftem. Bo tam też dzieją się ciekawe rzeczy. Microsoft chyba dzisiaj rano na ażurze wystawił DeepSeeka. To też są bardzo ciekawe ruchy. Będziemy to komentować. Zobaczymy jak to wszystko wygląda. Zobaczymy czy będzie jakaś ścisła polityka a propos tego co na tym Stargate ma śmigać i czy to nie będzie jakiegoś konfliktu interesów gdzie z jednej strony duże firmy amerykańskie wystawiają właśnie amerykańskie, chińskie modele na swojej infrastrukturze a z drugiej strony mówią że tutaj w takich państwowych projektach się angażują. Więc początek czegoś głośnego. Zobaczymy jak to się będzie rozwijać.
Marcin: Dokładnie tak. Mamy jeszcze drugiego głośnego newsa, który warto omówić, czyli OpenAI Operator. Przemek, może przybliż, cóż to jest za rozwiązanie od strony technicznej, bo to również wywołało duże zamieszanie, chociaż mogłoby się wydać, że to już było dawno temu i nic istotnego po tym chińskim dipsikowym tajfunie, który tam przeszedł przez media w ostatnim czasie.
Przemek: W kontekście operatora trzeba powiedzieć, że to jest potwierdzenie jakiejś tam serii plotek, które też przebijały się do opinii publicznej. OpenAI czy sam Altman wskazywali, że tak jak kiedyś rozpoczęli pracę nad custom GPTs, tak ten rok ma być poświęcony agentom i temu, żeby chat GPT był po prostu sprawczym rozwiązaniem, de facto asystentem, użytkownika w tej czy innej formie. Widzieliśmy małe preview tego, jak chatGPT ma działać bardziej autonomicznie. To są te krony, z których ty Marcin się naśmiewałeś i chatGPT tasks, które cyklicznie mają nam przypominać o jakiejś aktywności. Natomiast teraz idziemy o krok dalej. W Ameryce na planie chatGPT Pro, czyli tym najwyższym za 200 dolarów na miesiąc, pojawia się nowa funkcja operator. czyli sposób na to, żebyśmy współpracowali z agentem obsługującym przeglądarkę, można powiedzieć. Sztuczna inteligencja, która w naszym imieniu obsługuje przeglądarkę, jest w stanie robić dla nas wszystko to, co normalnie człowiek, użytkownik przez tą przeglądarkę może robić. Co tutaj można sobie wyobrazić? Pierwsze demko, które się pojawiło, dotyczyło chociażby rezerwacji stolika przez Open Table, model operatora nie jest ograniczony jedynie do API czy do infrastruktury, które firmy wystawiają albo nie, jest w stanie surfować po internecie. Jeśli mamy jakąś stronę, czy to do zamawiania jedzenia, do bukowania wycieczek, do rezerwacji stolika w restauracji, to ten operator w naszym imieniu powinien to robić. Skomentujemy sobie pewnie jeszcze zaraz to, na ile to już jest rozwiązanie gotowe, a na ile bardziej eksperyment. Ja tylko wspomnę, że pod spodem mamy pewnego rodzaju odpowiedź na to, co jakiś czas temu przedstawił Antropic, czyli właśnie Computer Use. Mamy tutaj nowy model o nazwie Computer Using Agent, CUA, który z jednej strony wykorzystuje zdolność percepcji obrazu, GPT-4O, z nowymi mechanizmami, które mają właśnie być w stanie interpretować interfejs użytkownika, rozpoznawać przyciski, wchodzić w interakcję z klawiaturą, z myszką, czy wpisywać tekst w internecie w naszym imieniu. Ten model CUA zgodnie z tym, co OpenAF wskazuje, bardzo mocno bazuje na technikach chain of thought, czyli tych łańcuchów myśli, mamy mieć takie wieloetapowe wnioskowanie, rozumowanie, wszystko po to, żeby te raczej krótkie, raczej takie pobieżne instrukcje użytkownika rozkładać, rozwałkowywać na listę konkretnych kroków, które ten operator musi wykonać i dzięki temu te cele, które przed nim stawiamy będą po prostu kończyć się sukcesem. Więc mamy kwestie techniczne, mamy też oczywiście dyskusje związane z ryzykiem. Oczywiście pytanie brzmi, czy chciałbyś oddawać sztucznej inteligencji kontrolę nad twoją przeglądarką. Tutaj też od razu sprostujemy, bo widzieliśmy w sieci filmy, które twierdzą, że operator to jest właśnie kontrola nad twoją przeglądarką. Absolutnie tak nie jest. OpenAI ma swoje środowisko i swój zestaw maszyn wirtualnych z uruchomionymi przeglądarkami, po których chat GPT sobie klika. Natomiast tam pojawia się to samo ryzyko, które może się pojawić w waszych przeglądarkach, mianowicie wykonywanie jakichś niebezpiecznych akcji, wchodzenie na niebezpieczne strony, chociażby wykonywanie transakcji bankowych w waszym imieniu. OpenAI zapowiada, że wdrożył konkretny zestaw praktyk, które mają temu przeciwdziałać, natomiast w dużej skali będziemy musieli obserwować na ile ten operator jest użyteczny. Marcin, wiem, że ty masz kilka punktów takiego feedbacku z sieci, masz taki vibe-check zebrany. Jak to wygląda zgodnie z tymi opiniami, na które ty wpadłeś? Czy ten operator jest już gotowy, czy to jest bardziej eksperyment?
Marcin: No właśnie, bo nie wiem czy to wybrzmiało, chyba wspominaliśmy o tym, ale obecnie w Polsce sobie tego operatora jeszcze nie przetestujemy. On jest dostępny w tej najdroższej subskrypcji ChargeBT Pro za 200 dolarów. Jest przede wszystkim też dostępny wyłącznie na terenie Stanów Zjednoczonych. jest zapowiedziany dostęp w planie plus, ale również póki co dla Stanów Zjednoczonych. Mam obawy, że to będzie jeden z tych projektów, który może nigdy do nas nie trafić albo no to już będziemy znaczne, znaczną ilość czasu musieli odczekać za sprawą AI Act. Zobaczymy, czy to się potwierdzi, no ale przy tych gdzieś tam realiach prawnych, systemach ryzyka, Potencjalnie taki agent może zrobić niemalże wszystko. Również obalić zachodnią demokrację, a przed tym AI Act ma nas uchronić.
Przemek: Teraz jest kompas innowacji, nie wiem czy widziałeś. Jest dzisiaj.
Marcin: Kompas innowacji jest teraz. Musisz nadrobić. Zajmowałem się rzeczami bardziej wpływowymi jak właśnie DeepSeek, ale oczywiście na drobie zaległości. Mój Boże, czemu mi to robi źle, koniec odcinka, ale dobra. No i więc ja gdzieś tam zaciągnąłem opinii u zaufanych twórców z za oceanu właśnie, którzy do Operatora mieli dostęp, zresztą nawet przed premierą. Jednym z nich był profesor Molik. drugi to byli redaktorzy ulubionego przeze mnie portalu evry.tu. Obydwoje są entuzjastami generatywnej sztucznej inteligencji i tego co tworzy OpenAI, ale jakoś szczególnie zachwyceni tym rozwiązaniem nie byli. Fajny eksperyment, fajny prototyp, robi rzeczy, ale często się myli, robi to wolno. Zadania, które człowiekowi zajmują tę przysłowiową minutę, operator wykonuje w minut kilkanaście, też z niemałym prawdopodobieństwem, że dojdzie do pomyłki. Biorąc pod uwagę, jakie jest założenie, że to ma dość wrażliwe zadania dla nas realizować, związane z wydawaniem pieniędzy, gdzieś tam z zawartością naszego nie tylko potwela i żołądka, no to myślę, że bardziej w charakterze takiego póki co zajawki, ewentualnie wizji tego, co może będzie działało za co najmniej wydaje mi się kilka miesięcy, chociaż ja mimo wszystko cały czas strzelam w kilka lat na takim poziomie produktu, któremu można zaufać. Jeżeli w ogóle. No tak jak mówię, w Unii Europejskiej raczej nie, bo to jest po prostu prawnie. Wydaje mi się niemożliwe przy obecnych regulacjach. A od strony technicznej to naprawdę, już pisałem o tym na LinkedInie, to w ogóle był taki trochę miesiąc świętego oburzenia w moim wykonaniu. Wybaczcie, ale dużo gdzieś tam po prostu ścieku moim zdaniem się przelewało i trzeba było to prostować. No więc tutaj to naprawdę jest duże wyzwanie, żeby oddawać gdzieś tam sprawczość agentowi, zwłaszcza w tematach, gdzie nasz portfel ma wchodzić w grę i też to, gdzie my pojedziemy na wakacje, gdzie my będziemy spali, kto nam przywiezie, kiedy i jakie jedzenie. To brzmi wszystko świetnie i z jednej strony byśmy tego chcieli, jak myślimy o tym tak na szybko, no fajnie, ale z drugiej strony Wydaje mi się, że naprawdę daleka droga do tego typu rozwiązań, żebyśmy gdzieś tam spokojnie spali, mając tego typu rozwiązania z piętą naszą kartą i tak dalej. Nie wiem, co ty Przemek o tym sądzisz, czy to w ogóle jest gdzieś tam kierunek, który kiedykolwiek przejdzie do codzienności i ludzie faktycznie będą czegoś takiego korzystali na szerszą skalę.
Przemek: Znaczy, no ja rozumiem tę główną obietnicę, która stoi za tego typu agentami, mianowicie obejście ograniczeń API. Też wielokrotnie o tym rozmawialiśmy, że wielu asystentów, którzy wykorzystują sztuczną inteligencję, opierają się na interfejsach technicznych właśnie na API. Jak wiemy, nie każda firma chce takie interfejsy wystawiać, nie wszędzie to jest darmowe i nie przez każde API zrealizujesz pełną funkcjonalność tego, na co pozwala np. interfejs użytkownika. Więc jeśli taki agent byłby w stanie właśnie interpretować obraz, przyciski i tak dalej, to wiadomo byłaby to bardzo istotna korzyść. Natomiast to też nie jest tak, że to się spotka jedynie ze stuprocentowo pozytywnym przyjęciem. Mamy chociażby obszar bankowości bardzo ściśle regulowany, gdzie już kilka lat temu na poziomie Unii Europejskiej była dyskusja o tym, czy ktoś w naszym imieniu może klikać po naszym koncie. I wcale nie jest takie oczywiste, żeby nie powiedzieć, jest to praktycznie niemożliwe dzisiaj na terenie Unii Europejskiej, żebyśmy takiego operatora wykorzystali do tego, żeby nasz bank obsługiwał. Widzimy pomysły integrowania takiego operatora z procesami, które powinny być bardziej przewidywalne niż dzisiaj pozwala to sztuczna inteligencja, chociażby testy end to end. Znowu, wydaje się to ciekawe, interesujące, żeby taki operator testował nasze aplikacje. Ale wiemy jak to działa nie wiemy że wiemy że to jest nieprzewidywalne wiemy że to jest wolniejsze niż klasyczne testy które napiszesz sobie w jakimś plejrajcie czy cypressie więc na dzisiaj raczej demka myślę że te demka dla tych firm podskutkują po prostu całą masę informacji które oni powinni wykorzystać w iterowaniu nad tymi produktami. Long term wyobrażam sobie że coś takiego będzie istnieć ale nie w jakiejś utopijnej rzeczywistości gdzie wszystko taki operator może robić będzie mógł robić to co inne systemy mogą robić, albo z czym zmierzyli się twórcy takich systemów w ostatnich latach. Raczej będzie większa ostrożność niż mniejsza, więc trzeba to mieć na uwadze.
Marcin: I tym oto sposobem dotarliśmy do mety. Miał być jeden z krótszych odcinków, wyszedł jeden z dłuższych, jeżeli nie najdłuższy, ale mam nadzieję, że był ciekawy i wartościowy. Jeżeli się spodobał, no to mamy dla was dwie prośby, a może i więcej. Pierwsza jest taka, żeby ocenić nasz podcast na 5 gwiazdek bądź zostawić lajka w zależności od tego z jakiej platformy korzystacie. To nam pozwoli dotrzeć do szerszego grona odbiorców. Chcielibyśmy w tym roku przebić ten sufit 2000 odbiorców co odcinek. Jeszcze nam się to nie udało zrobić, ale byłoby świetne. Dużo wkładamy pracy i wysiłku, żeby te odcinki były wartościowe i merytoryczne. Więc to będzie świetny sposób, aby nam w tym pomóc. A drugi świetny sposób będzie taki, aby ten podcast udostępnić. Czy to na Linkedinie, czy to na Instagramie, czy na innym social mediach, z którego korzystacie. To jest kolejny sposób, żeby nam pomóc w dotarciu do szerszego grona odbiorców. My również oczywiście te nasze odcinki promujemy, więc też lajki pod postami, komentarze, wasze opinie na poruszane przez nas tematy. są nie dość, że dla nas motywujące i jesteśmy ciekawi, co o tym wszystkim sądzicie, więc zachęcamy, żeby chociażby na LinkedIn się do tych naszych treści odwoływać. Tak więc tutaj taki apel do Was. Raz jeszcze zachęcamy, żeby odwiedzać stronę opanuj.ai, tam znajdziecie nasz newsletter, tam znajdziecie nasze szkolenia, nasz kurs kursora, pełen pakiet, więc zachęcamy do Sprawdzania. Dziękujemy za uwagę. I widzimy się nie za miesiąc po raz pierwszy, tylko za dwa tygodnie. Daj Bóg, że udaramy się tą obietnicę zrealizować. Taki mamy plan.
Przemek: Walentynki Edition.
Marcin: Dokładnie Walentynki Edition. Taki jest plan. Kalendarze co prawda zaczynają nam się wypełniać po brzegi, ale zrobimy co w naszej mocy, żeby z takim technicznym odcinkiem do Was przybyć i uczynić to nową Tradycją. Raz jeszcze wielkie dzięki, wszystkiego dobrego. Jak najwięcej merytorycznych treści, jak najmniej bullshit’u Wam życzę w kolejnym miesiącu, bo styczeń już wydaje mi się trochę wyczerpał limity na cały 2025 rok, ale coś czuję, że się przeliczę. Wszystkiego dobrego.
Newsletter Opanuj AI
Subskrybuj ręcznie selekcjonowane materiały z obszarów AI i rynku nowych technologii, które pomagają dowozić lepsze rezultaty i budować kulturę innowacji
- W każdy poniedziałek
- Otrzymuj podsumowanie najważniejszych informacji z branży AI i nowych technologii. Gwarantujemy zero spamu i tylko wartościowe treści.
- Tylko najlepsze materiały
- Materiały zamieszczane w newsletterze przechodzą proces selekcji, gdzie wymagamy jakości i możliwej do wykorzystania wiedzy.