Podcast Opanuj.AI

Bądź zawsze na bieżąco

28 czerwca 2023

Łatwiejsze eksperymenty z AI i przegląd możliwości GPT-2030 - Co słychać w AI (Czerwiec 2023)

Słuchaj na twojej ulubionej platformie

Transkrypcja odcinka

Tekst wygenerowany automatycznie - może zawierać drobne błędy i literówki

Przemek:

Witamy w kolejnym odcinku podcastu Opanuj AI, gdzie przybliżamy Wam świat sztucznej inteligencji. Z tej strony Przemek i Marcin.

Marcin:

Cześć.

Przemek:

Dzisiaj mamy dla Was kilka materiałów właśnie ze świata AI i uczenia maszynowego. Porozmawiamy o tym, jak duże fundusze inwestycyjne inwestują w infrastrukturę open source. Porozmawiamy o tym, co nasza kochana Unia Europejska szykuje dla budowniczych, którzy będą się zajmować tematyką sztucznej inteligencji. No i podebatujemy o tym, jak GPT może potencjalnie wyglądać w roku 2030. I chcielibyśmy rozpocząć właśnie od tematu funduszy inwestycyjnych, konkretnie od funduszu Andriessen-Horowitz, który postanowił wesprzeć twórców rozwiązania partiach o sztuczną inteligencję poprzez opublikowanie pewnego szablonu. Marcin, mógłbyś powiedzieć coś więcej na temat tego szablonu?

Marcin:

Tak, jest to szablon stworzony z myślą o programistach Javascript, więc mamy tutaj standardowy stack z tego też ekosystemu React.js, Next.js, Tailwind, TypeScript, no wszystko co gdzieś tam lubimy i szanujemy i gdzieś tam w takiej aplikacji webowej mamy osadzone te wszystkie najciekawsze rozwiązania związane z Generative AI na tym lekko niższym poziomie niż ten, który znamy z ChartGPT. Chodzi tutaj o Text-to-Image za pośrednictwem Replicate oraz korzystanie z wektorowych baz danych, rozszerzanie kontekstu i pamięci LLM-ów o jakieś tam źródła danych, takie jak np. artykuły na blogu A16Z właśnie, więc bardzo ciekawe rozwiązanie. rozwiązanie, którym można się pobawić lokalnie u siebie na komputerze, wszystko sobie skonfigurować, skorzystać z własnych kluczy i zobaczyć jak tego typu aplikacje można rozwijać bez zajmowania się tą całą konfiguracją, tworzeniem wszystkiego od podstaw, co by zajęło nam pewnie tyle godzin, że nawet byśmy się za tą część AI nie zabrali. Tutaj mamy wszystko już gotowe i możemy zobaczyć jak to działa w praktyce.

Przemek:

Myślę, że to jest taka fajna definicja smart money, czyli sytuacji, w której zyskując inwestycje od takiego funduszu, uzyskujemy nie tylko pieniądze, ale uzyskujemy jakieś dodatkowe wsparcie. No i właśnie w tym postie, który teraz udostępniamy dla tych, którzy oglądają nas na YouTubie, Andrzej Sanhorowicz, a właściwie pracownicy tego funduszu, piszą o tym, że oni po prostu wierzą w to, że wspierając tę infrastrukturę open source, tak naprawdę pomagają środowisku i pomagają tak naprawdę sobie, zwiększając jakby szansę na wzrost liczby projektów opartych o sztuczną inteligencję. No i faktycznie my sami też zetknęliśmy się z tym, jak stosunkowo rozproszony jest to świat, jeśli chcemy budować takie end-to-endowe rozwiązania. Do tej pory eksperymentowaliśmy z projektami, które są oparte właśnie o large language modele. Ja osobiście byłem bardzo pozytywnie zaskoczony widząc właśnie taką realizację ze strony tego funduszu i chyba nie jest to coś, nie wiem czy się Marcin zgodzisz, co widzimy tak często szczególnie obserwując gdzieś tam nasze lokalne poletko funduszy inwestycyjne. To znaczy ja nie widziałem takich projektów open source, które mają wspierać przyszłych twórców. Raczej te fundusze lubią sobie gdzieś tam we własnym gronie takie rozwiązania tworzyć. Tak naprawdę to jest chyba jedno z pierwszych rozwiązań tego typu, które widzę, który tak duży fundusz promuje. Nie wiem, czy się zgodzisz.

Marcin:

Tak, również nie miałem w styczności z czymś takim do tej pory, więc naprawdę fajny ruch ze strony A16Z. Pewnie część ludzi, która jest cynicznie nastawiona do tego funduszu powie, że teraz sobie odbudowują street cred po failu z crypto, bo oni gdzieś tam potężne ilości pieniędzy w to zainwestowali. Obecnie wygląda na to, że są to pieniądze utopione. Mark Addison raczej się z tym nie zgadza. On tam po prostu mówi, że ten horyzont czasowy mają znacznie szerszy i to krypto jeszcze powróci na białym koniu. Aczkolwiek teraz widać, że mocno gdzieś tam przenieśli zasoby, skupienie na na AI. Fajnie też o tym temacie, że jeśli powiedział właśnie Marc Andreessen ostatnio u Lexa Friedmana, polecam bardzo tą rozmowę tak gdzieś nawiasem. A tutaj bardzo gdzieś tam właśnie fajny sposób dla programistów JavaScript, żeby żeby wejść w ten świat AI, zobaczyć czym jest ten słynny Lankchain, o którym tak dużo się mówi, bo on również jest tutaj gdzieś tam tym punktem styku pomiędzy wektorowymi bazami danych a LLM-ami. I to też fajnie jest pokazane w demo, gdzie możemy odpytywać artykuł właśnie Marka Andriessena. Dlaczego AI zbawi świat? Tak się nazywa ten blog post. Bardzo prowokacyjna nazwa, ale gdzieś tam Mark lubi takie prowokacyjne nazwy. I co najważniejsze, na ogół za tym idzie bardzo fajna i przemyślana treść. Tak też jest w tym przypadku. Więc bardzo ciekawe rozwiązanie i to może być jakaś fajna inspiracja dla Was, żeby zbudować bazę wiedzy dla Twojego zespołu, dla całej firmy na podstawie jakichś tam dokumentów, bo to dokładnie jest tego typu rozwiązanie.

Przemek:

Mówiąc o tym artykule, który naprawdę dużym echem odbił się w środowisku IT, chciałbym zwrócić uwagę na podsumowanie i na to, jak stanowczy są twórcy tego artykułu, czy właściwie sam autor w kontekście regulacji właściwie tego, co powinno być kolejnymi krokami rozwoju dziedziny sztucznej inteligencji, no bo te wcześniejsze fragmenty tego artykułu to są debaty związane z różnymi obszarami wpływu sztucznej inteligencji na nasz świat, na społeczeństwo, na to w jaki sposób będziemy wchodzić w interakcje ze sobą jako ludzie, czy poprawi się nasze samopoczucie, czy poprawi się nasz well-being. No ale jest też ta strona techniczna, jest też ta strona najbardziej praktyczna związana z rozwojem projektów i tutaj ostatnią częścią tego artykułu jest po prostu kilka sugestii ze strony tego funduszu inwestycyjnego, ze strony samego założyciela. A propos rozwoju tej dziedziny, bardzo mi się podoba tutaj ten radykalizm, bo właśnie szef pisze tutaj, że duże firmy powinny być dopuszczone do rozwoju sztucznej inteligencji tak szybko i tak agresywnie jak chcą. Startupy powinny również być dopuszczone do rozwoju i budowy sztucznej inteligencji tak szybko i tak agresywnie jak chcą. W tym wszystkim jest gdzieś świat open source, który jest takim uzupełnieniem właśnie tego co robią big techy i pracuje na nieco innym poziomie, ale również jest w stanie dowozić rozwiązania zdecydowanie bardziej zwinne. No i jest tutaj również informacja o tym, jak A16Z wyobraża sobie właśnie kontekst regulacji tych narzędzi dziedziny sztucznej inteligencji. Autor mówi tutaj o tym, że regulowanie powinno odbywać się na poziomie społeczeństwa i na poziomie życia, na poziomie relacji ludzkich, a nie na poziomie konkretnych narzędzi. Ja czytam to trochę tak, jakby autor mówił po prostu o tym, żeby Unia Europejska nie regulowała na przykład użycia młotka, ale regulowała po prostu to, co tym młotkiem możemy zrobić. Natomiast właśnie dużo dyskusji, które teraz widzimy a propos regulacji, o których jeszcze będziemy mówić w tym odcinku, dotyczy właśnie tego, czym jest młotek, jak z tego młotka można korzystać, jak ten młotek powinien wyglądać. Natomiast tutaj w artykule z A16Z mamy informację o tym, że tak naprawdę rząd powinien na nieco innym poziomie pracować. To jest chyba dobry moment, żebyśmy o samych regulacjach porozmawiali. Marcin, co sądzisz? To jest też bardzo gorący temat mówiąc o EA.

Marcin:

Niefajnie to wygląda z mojej perspektywy. Przygotowując się do tego odcinka zagłębiłem się w temat, żeby gdzieś tam poznać szczegóły. Również nie da się ukryć, że chciałem zobaczyć jak wygłosowali polscy europosłowie. Tutaj niespecjalnie są powody do dumy. bo żaden z naszych europosłów się nie wyłamał swoim krytycznym myśleniem, gdzieś tam wolnorynkowym podejściem. Wszyscy jak jeden mąż zarówno z PiSu, z PO i z tych wszystkich przybudówek głosowali na tak. I jeszcze panowie z PO i PSL, którzy należą do Europejskiej Partii Ludowej mogą się pochwalić tym, że popierali poprawkę, która pozwalałaby efektywnie wprowadzić podobny system do tego, który mamy w Chinach, jeżeli chodzi o social scoring. czyli gdzieś tam wszystko co jest związane z biometrią twarzy w czasie rzeczywistym. Tutaj oczywiście oficjalnym powodem było ratowanie praworządności, bezpieczeństwa obywateli. Zresztą jak to się dokładnie tak samo mówi w Chinach. Więc myślę, że nazwa partii ludowej tutaj widać fajne inspiracje kolegami z Chin. Dla mnie to jest gdzieś tam totalny absurd. Na szczęście ta poprawka nie przeszła i została już odrzucona na tym etapie, więc o to się nie musimy martwić. Ta biometria twarzy będzie stosowana tylko do przeszłości, jeżeli sąd stwierdzi, że mamy do czynienia z jakimś poważnym przestępstwem i to byłby istotny dowód w tej sprawie. Aczkolwiek w innych kontekstach, zwłaszcza w czasie rzeczywistym, co najważniejsze, rządy nie będą mogły z tego korzystać. Więc to akurat jest gdzieś tam ta pozytywna część tego, co obecnie mamy do czynienia, czyli póki co scenariusz chiński w Unii Europejskiej się nie wydarzy, aczkolwiek wszystko inne raczej pesymistycznie nas stawia co do tego, czy Europa będzie konkurencyjna względem Stanów i Chin, jeżeli chodzi o tą branżę.

Przemek:

Wczoraj w trakcie nagrywania podcastu z jednym z gości, w trakcie nagrywania tej rozmowy, którą zobaczycie za jakiś czas na naszym kanale, doszliśmy do takiej konkluzji, że różnica między Stanami Zjednoczonymi a Europą jest taka, że w Stanach Zjednoczonych dobrze jest mieć firmę, a w Unii Europejskiej dobrze jest pracować w tej firmie, bo jednak widać, że Unia Europejska zdecydowanie bardziej skupia się na tych kwestiach społecznych, z różnymi skrzywieniami tego, co te kwestie społeczne tak naprawdę znaczą. Natomiast Ameryka promuje tutaj ostry kapitalizm, wolny rynek i to podejście czysto techniczne do rozwiązywania problemów związanych ze sztuczną inteligencją. No i jest tutaj na pewno jakiś konflikt interesów, jest tutaj jakiś clash, który teraz różne instytuty, różni socjologowie próbują tak naprawdę łagodzić, próbują rozwiązywać. I też chcieliśmy dzisiaj wspomnieć o jednym takim opracowaniu właśnie tego, czym jest EA Act, jaki stworzył Instytut Adelowless. Jest to taki londyński instytut zajmujący się opiniowaniem rozmaitych zmian i powiedzmy nowości w świecie, nowych technologii w świecie informatyki. który dość krytycznie ocenia to, co tak naprawdę Unia Europejska dla nas przygotowuje, szczególnie zwracając uwagę na to, że jak zwykle mamy dużo biurokracji, mamy niejasny język, a technologia i tak ucieka i ten problem jak zwykle nie zostaje zaadresowany. Znowu jesteśmy w tym punkcie, w którym byliśmy w trakcie pracy nad GDPR-em, nad RODO, gdzie twórcy rozwiązań internetowych nagle zostali postawieni przed wymogiem dostosowania się do czegoś, co tak naprawdę nie jest zrozumiałe dla przeciętnego programisty i wymaga opinii kolejnych prawników, kolejnych radców prawnych. No i teraz tak naprawdę zostały wyciągnięte lekcje w liczbie zerowej. Próbujemy tego samego podejścia, no i mamy nadzieję, że tym razem wyjdzie inaczej, więc… Temat jest naprawdę kontrowersyjny. Marcin, może chciałbyś pociągnąć to, co tak naprawdę ten Instytut wymienił w tej swojej opinii albo na co zwraca uwagę?

Marcin:

Tak jak powiedziałaś, zwraca uwagę na to, że mamy dokładną powtórkę z RODO. Te same błędy zostały popełnione. Pewnie teraz będą miały jeszcze większe negatywne konsekwencje, zarówno na działalność przedsiębiorczą, jak i stricte techniczną. Mamy tutaj oczywiście ogrom bardzo ciekawych frazesów, dopuszczalne ryzyko, odpowiednie wybory projektowe, odpowiedni poziom dokładności, co to znaczy, tego już tutaj prawodawca się gdzieś tam nie pochełpił, żeby zdefiniować i gdzieś tam wydelegował definicję tego w każdym określonym kontekście dla każdej firmy do jakichś ciał pobocznych, które oczywiście będą zasilane bliżej nieznanym kapitałem ludzkim, na pewno nie pochodzącym z przemysłu. Więc w praktyce będziemy mieli do czynienia z tym, że odpowiednie korporacje, które piją wódkę z odpowiednimi ludźmi będą miały sytuację, bardzo jasną i przyjemną, podczas gdy mali przedsiębiorcy, na przykład tacy jak my, Przemek, będą musieli gdzieś tam chodzić po prawnikach, robić po prostu fingers crossed, robić rzeczy licząc, że nie trafią do więzienia, bo chcieli zrobić coś fajnego dla społeczeństwa. Więc dokładnie tak samo jak z RODO zresztą, o czym już mówiłem. Teraz nawet tworzenie newslettera w Unii Europejskiej jest dość stresującym przedsięwzięciem. Nawet nie chcę myśleć, co my będziemy musieli gdzieś tam robić, żeby zrobić appkę. opartą o GPT-4. Więc niestety nie wygląda to ciekawie. Bo tak jak powiedziałem, bardzo dużo nieścisłości w tym wszystkim. I gdzieś tam delegowanie interpretacji prawa już z miejsca do jakichś ciał pobocznych, które również nie będą miały ani przedstawicieli wybranych demokratycznie, tylko po prostu jakichś tam zaprzyjaźnionych ludzi, Europarlamentowi, więc wiemy jak to zazwyczaj wygląda w polityce, w praktyce. Będą koledzy i koleżanki, którzy nie do końca się znają na temacie, za to lubią dobrze wypić na Hawajach. Tego się niestety obawiam.

Przemek:

Ja bym tutaj powiedział, że to właśnie kwestia maksymalizowania wpływu różnego rodzaju lobby jest tym, co dla mnie jest najbardziej niepokojące, bo chciałbym żyć w takim utopijnym świecie, gdzie jako twórca, jako haker w dużym cudzysłowie, jako ktoś, kto po prostu chce pchać rozmaite inicjatywy do przodu, mogę po prostu tworzyć nowe rozwiązania, które są innowacyjne, które tak naprawdę w pewnym sensie próbują doganiać to, co dzieje się w Stanach Zjednoczonych. a Unia Europejska robi wszystko, żeby podkładać mi i tobie, nam, osobom, kolejne kłody pod nogi. I na pewno skończy się tak, że koledzy Królika będą w stanie interpretować to prawo w sposób poprawny, tak samo jak w trakcie pracy nad GDPR-em firmy delegowały interpretację tego, czym GDPR jest, do konsultantów, do osób, które specjalizują się w tego typu regulacjach. A i tak naprawdę, bo i ja i ty uczestniczyliśmy w implementacji takich rozwiązań, na końcu żadna z firm nie miała pewności, czy zaraz nie przyjdzie jakiś rachunek albo kara z Brukseli, więc myślę, że teraz nawet jeśli te wszystkie regulacje nie skończą się tym, że tak naprawdę jakieś modele zostaną nam zabrane, nie wiem, wyłączą nam internet, to pojawi się jakieś takie niepotrzebne poczucie tego, że zaczynamy działać niezgodnie z regulacjami. I samo to poczucie spowoduje, że 10-20-30% twórców stwierdzi, że zajmie się czymś innym, bo tak naprawdę cała gra nie jest warta świeczki. I dobrze to poczuliśmy w trakcie pracy nad chociażby stroną opanu.ai, gdzie jednym z tasków było dodanie analityki, było dodanie jakiegoś trackingu. I naprawdę spędziliśmy kilkanaście minut, czy też kilka spotkań na tym, żeby debatować, jak właściwie tą analitykę w 2023 roku można robić, żeby regulatorzy byli zadowoleni. Więc myślę, że AI to jest kolejna skala tego problemu, jakby kilka pięter wyżej, albo kilkanaście pięter wyżej. A tak naprawdę ja jako twórca, który ma czas i energię, żeby coś robić, nie czuję, że jak ktoś mi daje narzędzia.

Marcin:

Kompletnie nie, ale gdzieś tam panowie tacy jak Brando Benifei, włoski europoseł, który gdzieś tam kręci tym wszystkim, są bardziej zajęci gdzieś tam górnolotnym spojrzeniem na swoją pracę, mówiąc, że wysyłają sygnał do reszty świata, w jaki sposób wspierać innowacje i jednocześnie chronić demokrację. No pewnie podobne frazesy padały na temat RODO. W praktyce prywatność myślę, że jest bardzo w podobnej sytuacji, w jakiej była przed uchwaleniem tej zacnej ustawy. a jednocześnie głównie pojawiły się problemy takie jak opisałeś. To oczywiście ja nie jestem jakimś skrajnym przeciwnikiem regulacji, aczkolwiek uważam, że one powinny być naprawdę minimalne i bronić przed jasnymi, skrajnymi nadużyciami, to nie hipotetycznymi, tylko które znamy, które jesteśmy w stanie jasno zdefiniować. a nie tu tworzyć po prostu jakiś dziwny byt, który tak naprawdę pewnie po miesiącu nie będzie się nadawał do niczego w praktyce i jeszcze pod płaszczem tego robić go w bardzo ogólny sposób, żeby niby był odporny właśnie na czas. Coś tego nie czuję za bardzo. i wydaje mi się, że Europa powinna się na przykładzie eksperymentu komunistycznego nauczyć, że regulowanie tak po prostu dynamicznych systemów jak rynek, czy też branża sztucznej inteligencji teraz to nie jest najlepszy pomysł i to po prostu się nie udaje w praktyce, bo po prostu jesteśmy na to wszyscy za głupi, niezależnie czy jesteśmy inżynierami, czy też europosłami, którzy z technologią niestety nie mają wiele wspólnego i to widać po raz kolejny.

Przemek:

Jest jeden temat, w którym wiem, że się nie zgadzamy, a konkretnie kiedyś rozmawialiśmy o pewnym filmie, który nagrał znany i lubiony tata Matę, czyli Marcin Matczak, radca prawny i profesor Uniwersytetu Warszawskiego, który stworzył kiedyś taki film o tym, że prawo musi być skomplikowane, bo świat jaki nas otacza jest skomplikowany naiwne jest myśleć, że będzie tworzone proste prawo do opisu skomplikowanego świata. I tak się zastanawiam, czy próbuję grać takiego adwokata diabła, czy my tutaj czasami tego tematu nie upraszczamy i czy nie wydaje nam się, że ten temat jest prostszy niż w rzeczywistości jest. No ale ja mam takie wrażenie, że Znowu, cały czas będę leckał na tą perspektywę twórcy. Ja mam wrażenie, że naprawdę potrzebujemy narzędzi, że firmy naprawdę chcą chronić prywatność, że naprawdę nie chciałbym zobaczyć kodu mojej konkurencji, która pojawia się w copilocie moich programistów. Natomiast ten AI Act nie jest o tym, albo przynajmniej z punktu widzenia ulicy, z punktu widzenia Janka Kowalskiego on nie jest o tym. No i mam tutaj taki pewnego rodzaju brain split, gdzie tam Z jednej strony myślę o tym, co właśnie profesor Matczak mówi a propos skomplikowanego prawa i czemu ono jest skomplikowane, a z drugiej strony myślę o tej codzienności mojej i nijak nie jestem tych dwóch światów w stanie pogodzić. Nie wiem, czy masz tutaj jakieś obserwacje w tym temacie. Wiem, że ty nie za bardzo byłeś fanem tego pomysłu, że prawo musi być skomplikowane i dlatego tak jest, bo świat jest skomplikowany. Nie wiem, czy to się zmieniło od naszej ostatniej rozmowy w tym temacie.

Marcin:

Znaczy ja ogólnie zgadzam się z tym wytłumaczeniem stanu rzeczywistego, bo jest on właściwy. No też studiowałem prawo, więc zdaję sobie z tego sprawę. Często gdzieś tam rzeczy się wydają proste, intuicyjne, a potem w praktyce wychodzi zupełnie inaczej. To zresztą bardzo podobnie jest w sprogramowaniu. Mamy te wszystkie edge case’y itd. Patrzymy pierw na tego happy path’a, a potem nagle się okazuje, że musimy coś opisać, napisać w taki sposób, żeby obsługiwało jeszcze 10 warunków brzegowych. Dokładnie tak samo jest z prawem. Potem właśnie się okazuje, że albo mamy do dyspozycji dwie opcje. Nie zrobić nic, albo zrobić coś bardzo mało, albo próbować opisać tą całą złożoną rzeczywistość właśnie w takim dokumencie jak AI. bo to właśnie dokładnie to kształt tego dokumentu pokazuje, że Matczak ma rację. No tylko pytanie, jaka jest decyzja nasza, nie? Czy jeżeli mamy tak skomplikowaną i tak zmieniającą się rzeczywistość, czy my w ogóle powinniśmy próbować? Bo wydaje mi się, że niestety nie, bo jesteśmy wskazani. na porażkę, tak samo jak nie jesteśmy w stanie regulować centralnie gospodarki na 5 lat, bo to jest zbyt trudne zadanie i choćbyś po prostu nie wiem jak się nie głowił, jakim byś nie był ekspertem od ekonomii, rolnictwa i wszystkiego innego, nie dasz rady, nikomu się to nie udało i to po prostu zawsze się kończyło bardzo źle. I tu wydaje mi się, że jest gdzieś tam właśnie trzeba wziąć ten wniosek Matczaka i teraz powiedzieć czy w ogóle w takim razie jest sens się porywać z Włotykowa Słońce. No moim zdaniem nie.

Przemek:

To jest też ten wniosek, który pojawił się w artykule Marka Andriessena jako ostatni z tych podpunktów, co powinniśmy robić dalej. On tam pisze, że wszelkiego typu regulacje, nad którymi ja w domyśle czytam to jako Unia Europejska pracuje teraz i które mają być opublikowane za rok, za dwa, za trzy lata, będą tak naprawdę opisywać stan technologii na wczoraj. My tak naprawdę nie jesteśmy w stanie być tak elastyczni, czy politycy z doświadczenia, z naszych obserwacji nie są tak elastyczni, żeby w trakcie pracy nad trzyletnią ustawą, w trakcie kolejnych kilku miesięcy, brać wszystkie poprawki na to, co dzieje się w świecie researchu, który właśnie przemiela na lewo i prawo ten świat sztucznej inteligencji, który rozwija nowe techniki tego, jak te modele mają działać, który tak naprawdę poszerza pole wpływu tego, co te modele są w stanie robić. No i z czym skończymy? Skończymy z podsumowaniem 2023 roku w roku 2026, kiedy przez trzy następne lata będziemy obserwować kolejne innowacje właśnie w tym obszarze. No i coś mi się wydaje, to jest taki mój bet, który tutaj stawiam, że ta ustawa nie będzie brać pod uwagę wszystkiego, co przez te trzy kolejne lata tak naprawdę się stanie na rynku AI. Chociaż wiadomo, można tutaj próbować jakoś generalizować, no ale cała ta dyskusja zmierza w stronę, która jest no oczywiście niepokojąca. Też już słychać głosy, że w całym tym tourze sama Altmana po Europie i a propos tych wszystkich wizyt u największych liderów, największych gospodarek świata, Głównie chodziło o lobby, głównie chodziło o wypracowanie sobie przestrzeni na to, żeby OpenAI po prostu jakoś mogło się w tym wszystkim poruszać. Natomiast Altman sam powiedział, że to było chyba po rozmowie z Ursulą von der Leyen, że jest ryzyko tego, że OpenAI po prostu nie będzie w stanie dostarczać usług dla mieszkańców, dla obywateli Unii Europejskiej. Jakby w takim języku dyplomacji, jest to dość ogólne stwierdzenie, ale w języku dyplomacji tak naprawdę to znaczy, że i gracie z ogniem, i gdzieś tam w kuluarach biur, w kuluarach gabinetów tak naprawdę toczy się debata o to, co to OpenAI będzie robić. No bo to nie jest dyskusja jednostronna, to nie jest tylko dyskusja taka, że Unia Europejska, powiedzmy, reguluje jakieś pole, a OpenAI musi się dostosować, bo OpenAI robi ogromny impakt dla twórców, którzy w tej Unii Europejskiej chcą pracować i chcą tutaj tworzyć rozwiązania, więc to jest obustronna relacja. Z naszej strony osób, które pracują z technologią, wydaje się, że ta wartość jest jednak po stronie hakerów, mówiąc potocznie, po stronie osób, które tak naprawdę pracują z technologią, które dostarczają jakąś twardą wartość, twardą jakość. Natomiast perspektywa Unii Europejskiej jest inna. Zobaczymy, zobaczymy jak to wszystko się skończy. Na dzisiaj taki mały update od nas. Jak widzicie nie jesteśmy za bardzo pozytywnie nastawieni mówiąc o regulacjach. Podobnie było w ostatnim odcinku w podsumowaniu maja. Zobaczymy czy w podsumowaniu lipca nasze odczucia będą podobne albo skrajnie inne. Zobaczymy.

Marcin:

Jeszcze do końca roku panowie z Unii Europejskiej chcą dopracowywać ten dokument. Może będą zmiany na lepsze, kto wie. Jeszcze miesiąc temu w grze była ta cała biometryka. Wypadło to z gry, więc o tyle dobrze. Oby były tylko kolejne zmiany na lepsze. Chociaż tutaj wielkich nadziei tak ogólnie to szczerze mówiąc nie mam. Zamykając ten temat możemy przejść do drugiego, gdzieś tam luźnego tematu, który od razu da Wam fajną wartość i będzie miał wpływ na Waszą codzienną pracę. Mianowicie jest to artykuł o tym, jak lepiej promptować GitHub GoPilot, gdzieś tam na blogu właśnie GitHuba. Bardzo fajny, wydaje mi się przystępny i jest tam wiele istotnych rad, które działają w praktyce i łatwo gdzieś tam je zastosować. Świeżynka tak naprawdę z 20 czerwca, więc gdzieś tam gorąco polecamy się zapoznać. I czegoś tam tak naprawdę przemek możemy dowiedzieć z tego artykułu.

Przemek:

W tym artykule najbardziej podoba mi się to, że on zaczyna się tak, jak zaczyna się wielu naszych rozmów ze społecznością IT, która korzysta z Copilota, korzysta z czata GPT i po jednym dniu stwierdza, że to narzędzie nie działa. Tak naprawdę autorki wspominają tutaj o tym, że próbują zrealizować konkretne zadanie przy pomocy biblioteki, o ile dobrze pamiętam, P5JS, Konkretnie chcą stworzyć reprezentację powiedzmy stożka, rożka lodowego przy pomocy kanwasa. Chcą po prostu na kanwasie narysować taki stożek, narysować taki rożek. No i wykorzystują do tego celu Copilota, wykorzystują do tego właśnie bibliotekę P5JS. I to czego wychodzą to jest fakt, że Copilot zdaje się nie zwracać odpowiednich rezultatów. Zdaje się być po prostu bezużyteczny. Ten wynik, który tutaj widzicie na ekranie, jeśli oglądacie nas na YouTubie, wygląda właśnie tak. Autorki dostają tutaj w odpowiedzi z Copilota coś na zasadzie tarczy. do której można by bardziej strzelać z łuku, a nie tak naprawdę ją jeść. I tak naprawdę autorki rozwijają w tym artykule to, co zrobić i jak pracować z promptami GitHub Copilota, żeby uzyskać wynik, który właśnie przypomina te lody, które jemy w trakcie naszych letnich temperatur. I o co właściwie tutaj chodzi? Jest to kilka porad, o których my już mówiliśmy. na YouTubie, o których mówiliśmy na naszych prelekcjach, o których też chcemy mówić na naszych warsztatach, które tak naprawdę zmieniają spojrzenie, zmieniają takie wyobrażenie tego, czym tak naprawdę Generative AI jest, czym są narzędzia takie jak GitHub Copilot. Przede wszystkim ja odczytuję ten artykuł tak, jakby była to próba jakby pozbycia się takiego wrażenia, że Copilot będzie się domyślał tego, co ty masz w głowie. Jakby to wrażenie tej wyroczni, która będzie przewidywać po prostu twoje kroki, będzie przewidywać to, jak ma projekt działać, jak ma projekt być rozwiązywany, tak naprawdę w tym artykule jest obalane. Na co tutaj jest nacisk? Tak jak tutaj zaraz zobaczymy, po pierwsze progress over perfection, po drugie bardziej precyzyjne prompty i po trzecie takie iteracyjne podejście do pracy z generative AI, pracy z dużymi modelami językowymi. Czyli tak naprawdę to o czym Wielokrotnie już mówiliśmy na naszym kanale, teraz dobrze jest widzieć podobne obserwacje ze strony GitHuba, czyli firmy, która copilotem się opiekuje. No i powiedzmy taka konkluzja z tego artykułu to jest to, że to są wciąż tylko albo nie tylko narzędzia, które będą asystować w przypadku dobrze opisanych poleceń, a nie będą się po prostu domyślać tego, co programista ma w głowie. Więc to są takie moje wysokopoziomowe obserwacje. Możemy pewnie ten temat zgłębić. Czy ciebie Marcin tutaj coś zaskoczyło, czy zgadzasz się z tymi moimi obserwacjami?

Marcin:

Zgadzam się w zupełności. Bardzo mi się ten artykuł podoba. Jest przystępny. Rady są naprawdę kluczowe. No i gdzieś tam raz jeszcze mówię, że to naprawdę ma potężny wpływ na to, jakie mamy rezultaty. Zresztą świetnie widać w tym artykule. Myślę, że każdy programista powinien go przeczytać. To jest 5-10 minut, a może mieć diametralnie gdzieś tam wpływ na Twoje doświadczenie wykorzystywania AI. Tak więc gorąco polecam i myślę, że możemy przejść tym optymistycznym akcentem do kolejnego tematu, którym są ambitne plany OpenAI dotyczące ich API. To jest gdzieś tam artykuł, który bardzo szerokim echem się rozszedł przez pierwsze dni po premierze, po czym nagle zniknął i gdzieś tam nawet miałem problem, bo ja go przeczytałem w jednym z newsletterów, do którego jestem zapisany. Po czym chciałem go polecieć dalej naszej społeczności w newsletterze i nagle ten artykuł zniknął z internetu. Być może sam Altman powiedział tutaj o kilka rzeczy za dużo, bo planów jest tutaj bardzo dużo i to są konkretne plany, też jakieś mówienie o konkretnych problemach firmy, więc wydaje mi się, że tu jakiś dziar PR-owy mógł powiedzieć, że chyba trochę za dużo i za mocno i gdzieś to zniknęło z tego bloga. Human Loop to jest blok firmy, która tworzy platformę do budowania produktów na podstawie LLM. I właśnie CEO tej firmy Raza Habib rozmawiał z samym Altmanem o planach dotyczących API. I są tutaj bardzo gdzieś tam ciekawe informacje podane. Przede wszystkim to, że obecnie GPT-4 i dalszy jego rozwój jest mocno ograniczany przez brak kart graficznych na rynku, brak zasobów, no bo gdzieś tam w tym technical report GPT-4 dostaliśmy informację o tym, że będziemy mieli ten To okno kontekstowe na 32 tysiące tokenów. To gdzieś tam jest naprawdę dostępne obecnie dla nielicznych. Mieliśmy oczywiście informacje o tej wielomodalności, o tym, że GPT-4 będzie działało nie tylko na tekście, ale również na obrazach. to nie wiem czy w ogóle jest to dla kogokolwiek dostępne. Na pewno nie jest to szeroko dostępne dla ogółu użytkowników. No i tutaj sam Altman mówi wprost, że to nie jest kwestia tego, że tutaj coś nie działa, albo że oni nie chcą tego dostępnić. Wbrew pozorom wcale nie. Chodzi tylko o to, że nie mają zasobów obliczeniowych. i trzeba czekać aż Nvidia gdzieś tam pewnie zwiększy produkcję swoich CAD bądź też Microsoft, Google będzie produkowało własne CAD zresztą co oni już robią z tego co.

Przemek:

Wiem Dwie obserwacje tutaj. Pierwsza jest taka na takim ogólnym poziomie, że o ile dobrze pamiętam, pewnie można by było ten artykuł odkopać w Internet Archive, ta treść, która została opublikowana różni się, o ile dobrze pamiętam, od tego oryginalnego artykułu, bo on był zdecydowanie bardziej szczegółowy. To były naprawdę praktycznie release notes albo taki bardziej szczegółowy opis roadmapy, która tutaj się pojawiała po tej pierwszej rozmowie z samym Altmanem. To, o czym my rozmawiamy i to, co my dzisiaj udostępniamy na ekranie, jest troszkę bardziej wygładzone. Tak jak Marcin właśnie powiedział, tutaj już na pewno dział PR-owy odcisnął swoją rekomendację na tym artykule. No ale i tak, wracając do tych szczegółów, jest tutaj troszkę mięsa. Wydaje mi się, że to jest… Wydaje mi się. Może zanim co mi się wydaje, można jeszcze pociągnąć temat tego, o czym tak naprawdę Altman mówi, a zaraz powiem, co mi się wydaje. Altman, poza tym o czym Marcin wspomniał, poza właśnie zaznaczeniem, że mamy problem z infrastrukturą, mamy ograniczenia GPU, wspomina, że kontynuowane są prace nad GPT-4, kontynuowane są prace nad tym, żeby ten model był bardziej dostępny i tańszy w obsłudze, żeby wyniki, które otrzymujemy były zwracane w szybszy sposób. Więc sugestie, które tutaj mamy od Altmana dotyczą tego, że tak naprawdę teraz wchodzimy w taki etap optymalizacji tego, co już znamy, a nie rewolucjonizowania jakiegoś nowego, powiedzmy, pola, czy jakiejś przestrzeni na rynku. Po drugie, mamy tutaj też komentarze o tym, że plug-iny na razie nie wydają się, powiedzmy, adresować jakiegoś product market fitu. I tutaj ta uwaga dotyczy tego, że tak naprawdę zostało opublikowanych mnóstwo plug-inów, niewiele z nich okazuje się tak naprawdę użytecznymi. I tutaj Altman sugeruje, że tak naprawdę wygląda na to, że to czat GPT miałby się znajdować w aplikacjach, a nie nasze aplikacje miałyby się znajdować w czacie GPT. No ale oczywiście to wszystko, powiedzmy, te poszukiwania tego mitycznego product market fitu polegają na tym, że jesteśmy stosunkowo na początku, na początku całej tej drogi rozszerzenia czata GPT. Potem jak oczywiście pojawiły się plug-iny to było mnóstwo ekscytacji, też o tym mówiliśmy w naszym podcaście. No ale Altman sam mówił o tym, że Po pierwsze plug-iny nie będą się jeszcze pojawiać na poziomie API, a po drugie on sam nie jest przekonany, że te plug-iny rozwiązują konkretne problemy, powiedzmy na takim najbardziej ogólnym poziomie, więc to jest też ciekawa obserwacja. Kolejna rzecz taka, która chyba dla mnie jest najbardziej ciekawa z punktu widzenia twórcy, który też gdzieś tam eksploruje właśnie to, jak wykorzystać chata GPT we własnych rozwiązaniach, to jest fakt, że OpenAI deklaruje się tutaj, że nie zamierza konkurować, a raczej dostarczać platformę, na której inni będą budować, więc jest to też takie podejście platformowe, które sprawdziło się chociażby w przypadku Stripe’a, który oferował platformę do obsługi płatności i obsługi billingów, niekoniecznie chciał konkurować z bankami i OpenAI z chatem GPT z chat API tutaj zdaje się stosować podobne podejście. Wydaje mi się, że jest to po prostu skrojone pod tę strategię, o której mówiłem wcześniej, to znaczy to, że OpenAI i ChatGPT mają działać jako platforma, mają działać jako API, a niekoniecznie mają być konkurentami z bardziej dostosowanymi do konkretnych rynków rozwiązaniami. No i dwa ostatnie punkty, o których tutaj mowa, to jest to, że Regulacje i to o czym mówiliśmy wcześniej przez kilkanaście minut są potrzebne, ale tak samo potrzebujemy pewnego rodzaju kreatywności w świecie open source, więc tutaj jest zwrócenie uwagi na to, że musi być jakiś balans w tych dyskusjach o tym czego potrzebujemy w świecie sztucznej inteligencji. No i też kontynuujemy dyskusję o tym, czy zwiększając fizyczne rozmiary modeli będziemy otrzymywać lepsze rezultaty. To była taka teza, którą promowano właśnie kilka lat temu. Ona okazała się prawdziwa, potem poszła pogłoska, że tak naprawdę doszliśmy do ściany. No ale Altman zwraca tutaj uwagę, że ta ściana znowu bardziej jest związana z tym, o czym powiedział Marcin, czyli z tymi ograniczeniami. a nie z jakimś powiedzmy fundamentalnym ograniczeniem, które sprawi, że większych model niż GPT-4 nie można już budować. Raczej chodzi o to, że mamy tą ścianę infrastruktury i dopóki jej nie przeskoczymy, to nie będziemy wiedzieć jak tak naprawdę to prawo skalowania się wielkich modeli językowych wpływa na otrzymywane rezultaty. Kilka ciekawych sugestii. Ja tak jak mówię najbardziej jestem zainteresowany tą dyskusją związaną z tym jak tak naprawdę OpenAI będzie się pozycjonować jeśli chodzi o wykorzystywanie ich rozwiązań w innych produktach. Jest taka obawa oczywiście, że budowanie startupów i budowanie firm w oparciu o API jakiejś firmy to jest duże ryzyko. No i sam jestem ciekaw, jak to się rozwinie. Byłoby to bardzo nieintuicyjne, jakby z dnia na dzień albo koszty, albo dostęp do tego API został zabrany. Chociaż widzieliśmy takie historie, widzieliśmy to w przypadku Reddita, widzieliśmy to w przypadku Twittera. To są takie dwa najbardziej głośne case’y, które teraz widzimy właśnie w tym świecie technologii. Pytanie, gdzie OpenAI będzie za kilka lat. Co Ciebie Marcin tutaj zainteresowało, jak chodzi o te sześć punktów? Na co zwracasz największą uwagę?

Marcin:

Myślę, że ten punkt drugi, który nam uciekł, gdzie mamy te konkretne najbliższe plany, są fajne informacje, wydaje mi się napawające optymizmem. W tym roku możemy się spodziewać, że GPT-4 będzie tańsze i szybsze. że będziemy mieli te dłuższe okna kontekstowe. Tutaj sam Altman rzucił zawrotną liczbą miliona tokenów, no co w ogóle jest jakąś tam absurdalną liczbą przy obecnych standardach, gdzie mamy 8 tysięcy tokenów i to już nawet jest całkiem niezłe. 100 tysięcy jest w tym Cloudie, to też ludzie bardzo, bardzo gdzieś tam się tym ekscytowali. 100 tysięcy tokenów to już jest 200 stron, więc można nawet książkę załadować do takiego ELM-u bez wektorowej bazy danych, bez RankChain-a, więc wow, to byłoby niesamowite, co dopiero milion, czyli gdzieś tam byśmy mieli 2 tysiące stron, co jest w ogóle absurdalną liczbą. Finetuning API, czyli Dokładnie, dokładnie i jeszcze by zostało. Mamy gdzieś tam, są plany co do Fine Tuning API i Stateful API. Wszystko to by było naprawdę gdzieś tam zabójcze połączenie. Wydaje mi się, że w ten sposób OpenAI by mocno się wybiło przed szereg. No teraz pytanie, czy w ogóle będą w stanie zrealizować tak ambitne plany, mając na uwadze te wszystkie braki na rynku dotyczące zasobów. Ciekawe czasy, że to nie pieniądze są ograniczeniem, tylko dostępność jakiegoś surowca. Pewnie to też nie jest nic nadal nadzwyczajnego, ale wydawałoby się, że jesteśmy jeszcze na wczesnym etapie i to wszystko powinno iść bardzo szybko do przodu i to raczej kreatywność powinna nas blokować, a nie Nie braki na rynku, też ciekawe na ile to się wiąże z wojną na Ukrainie, z przerwaniem tych łańcuchów dostaw. Bardzo możliwe, że to też po prostu ma istotny wpływ na to jak ten rynek kart graficznych wygląda. No i na pewno ten ostatni punkt, gdzie gdzieś tam sam Altman potwierdza, że nie czują, żeby te prawo skalowania już dobijało do swoich ograniczeń. Mają poczucie, że dokładając zasoby, dokładając dane bez żadnych wielkich przełomów technicznych, jakiegoś po prostu wynalazku na miarę transformera są w stanie w znaczny sposób cały czas poprawiać te swoje modele GPT 5, 6. Jeżeli to będzie prawdą, to ma istotny wpływ na to, kiedy możemy się spodziewać AGI. I zresztą o tym będzie ostatni artykuł, o którym porozmawiamy, to GPT 2030, gdzie również jest ten sam To samo założenie postawione, możemy przejść do tego artykułu i szerzej powiedzieć, co się wydarzy, jeżeli to założenie jest prawdziwe, że możemy brać tempo postępu z przeszłości i gdzieś tam ekstrapolować to, co otrzymamy w roku 2030.

Przemek:

Tutaj jeszcze może konkluzja z tego artykułu jest taka, że jakby to co zostaje opublikowane, powiedzmy to co wychodzi na światło dzienne, to nie do końca jest to co tam dzieje się w OpenAI w rzeczywistości, jeśli macie wrażenie, że jakiś tam hype na AI spada. to ja bym chętnie zobaczył co się będzie dziać przy publikacji GPT-5 albo przy publikacji kolejnych dużych modeli. Co tak naprawdę wydaje się być kwestią czasu. Te ograniczenia związane z kartami graficznymi wydaje mi się, że w pewnym momencie zostaną zaadresowane. Sama Nvidia o tym wspominała przy tym swoim podsumowaniu poprzednich kwartałów. No i zobaczymy tak naprawdę czy AI jest bańką, tak jak niektórzy starają się spekulować czy tak naprawdę jest to powiedzmy, no przełom, nowa dziedzina informatyki, nie taka nowa dziedzina informatyki, ale dziedzina informatyki, która tak naprawdę zyskuje nowe życie, dokładając do tego odpowiedni hardware, bo to na pewno nie jest nowa dziedzina informatyki, to jest wręcz bardzo wygrzana dziedzina informatyki, która nie mogła się doczekać odpowiedniego sprzętu, żeby zwracać odpowiednie rezultaty. Więc czekamy na te postępy. Tak jak słusznie też Leszek Bukowski wczoraj zauważył na Twitterze, chciałbym wspomnieć ten tweet. Jeśli powiedzmy ta ulica będzie mieć wrażenie, że hype na AI się kończy, to to jest zupełnie przeciwne do tego, co programiści myślą o AI. Bo jakby w świecie programowania, w świecie nowych technologii AI to jest tak naprawdę dalej the next big thing. To jest ciągle big thing i ciągle jakby przestrzeń do eksploracji. To nie jest tak, że programiści stwierdzili, że jakby przechodzimy do czegoś innego, tak naprawdę teraz będziemy robić rozwiązania w VRze. Jakby tutaj te eksploracje cały czas trwają, tylko one nie zawsze wychodzą na światło dzienne i tak naprawdę te plany Altmana i plany OpenAI o tym świadczą. Także kontynuujemy naszą podróż, a teraz, tak jak Marcin wspomniał, przechodzimy do forecastowania tego, co się będzie dziać z GPT. Udostępniam ekran, a tym Marcin może zrobić tutaj intro.

Marcin:

Tak, jest to ciekawy artykuł. Oczywiście trzeba zaznaczyć na początku, że jego głównym założeniem jest to, że tempo zmian będzie takie same w przyszłości, jakie było w przeszłości. Tutaj pewnie Nassim Taleb strzela face palma i stwierdza, że to jest bardzo gdzieś tam naiwne i nienaukowe. Poniekąd się z tym zgadzam, bo to jest dość odważne założenie tak naprawdę.

Przemek:

Analiza techniczna, welcome to.

Marcin:

Dokładnie tak. To jest coś, co może tak bardzo się nie sprawdzić, jak się może sprawdzić. Nie są to tak naprawdę jakieś przekonujące dane na poziomie racjonalnym. To jest bardzo podobne gdybanie jak jakiekolwiek inne niepoparte o żadne dane. Więc tutaj nie chciałbym, żeby ktokolwiek Wpadłem w wrażenie, że tak na pewno będzie, bo wcale tak może nie być, bo może być tak, że 35 jeszcze wyjdzie, będzie ten postęp na podobnym poziomie, po czym nagle gdzieś tam uderzymy te krańcowe przychody skalowania i nagle się okaże, że nawet skrajne zwiększanie zasobów i ilości danych nie będzie już dawało takich rezultatów. To jak najbardziej jest możliwe i też trzeba brać na to poprawkę. Ja do tego właśnie się odnosiłem w swoich odcinkach na YouTubie, gdzie rozważałem to czy my zostaniemy zastąpieni przez to AI czy nie w najbliższym czasie. Wydaje mi się, że to jest skrajnie istotne dla odpowiedzi na to pytanie, czy to faktycznie skalowanie będzie cały czas postępowało linearnie, bo jeżeli będzie, no to jak przekonuje gdzieś tam ten artykuł, no to niestety musimy się z tym liczyć, że programowanie takie, jakie znamy, będzie w dużej części zautomatyzowane, co gdzieś tam tutaj twórca w sposób bardzo obrazowy pokazuje i tłumaczy. Jest założenie takie, że jeżeli będzie to skanowanie postępowało, to w 2030 GPT będzie miało umiejętności nadludzkie w takich zadaniach jak programowanie, hakowanie, matematyka i najpewniej również synteza, projektowanie białek. Więc tutaj będziemy mieli niesamowity postęp, tyle że najpewniej bez udziału człowieka, który zostanie daleko z tyle. Tu możesz Przemek się gdzieś tam odwołać do tych wszystkich wyliczeń, wyglądających dużo bardziej precyzyjnie niż jest w rzeczywistości, ale przytoczmy je myślę.

Przemek:

Tutaj estymacje, które są zawarte w tym artykule dotyczą tego, że na przykład w 2030 roku powiedzmy w cudzysłowie szeroko rozumiana praca i myślenie będą pięć razy szybsze czy będą na pięciokrotnie wyższym poziomie niż ten poziom ludzki. To jest też związane właśnie z przetwarzaniem tekstu. Tutaj mamy też metryki związane z tym ile tekstu te modele językowe będą mogły zwracać. No i mamy tutaj też informację o tym, jakiego czasokresu te modele językowe będą się mogły uczyć jednego dnia. I tutaj jest taki forecast, taka prognoza, że jednego dnia te modele językowe będą się mogły uczyć tego, co ludzkość uczyła się 2500 lat. Jan tutaj zrobił minutę na zastanowienie się, co to tak naprawdę może znaczyć. Ale szczerze mówiąc Marcin, ja tutaj z lekkim dystansem czytam ten artykuł i chyba w moim przypadku zadziało coś takiego, Im więcej tych liczb, tym mam większy dystans do tego. Rozumiem, jaka tutaj jest idea, to jest pewnego rodzaju sprowokowanie czytelnika do myślenia. No ale ja to chyba wolałbym takie forecasty na nieco wyższym poziomie czytać. Chociaż no wiadomo, że jest to też jakiś bet. Jest to bet, o którym możemy sobie przynajmniej w podcastach porozmawiać. Mnie zdecydowanie bardziej uderzyła ta perspektywa tych siedmiu lat i uzmysłowienie sobie tego, że mamy 2023 i mówimy o 2030. Siedem lat, siedem lat podejmowania decyzji związanych z karierą, z życiem, z tym czym się zajmujemy. do dojścia do takiego rynku, do takiego potencjału wielkich modeli językowych. I teraz rozpoczyna się tak naprawdę dyskusja, co w te 7 lat można należałoby zrobić, żeby tymczasem pokierować odpowiednio, żeby czas i energię wykorzystać w taki sposób, żeby, no powiem tak bardzo brutalnie, gdzieś tam nie wylądować na bruku za te 7 lat, kiedy może się okazać, że tak naprawdę praca człowieka z komputerem będzie wyglądać zupełnie inaczej. Te metryki, które tutaj są, one są przesunięte do jakichś ekstremów. Może to nie będzie ekstremum. Okaże się, że to będzie jakieś niedoszacowanie za te 7 lat. Ale dla mnie to jest właśnie to, do czego ten artykuł mnie osobiście prowokuje. Ta perspektywa 7 lat to naprawdę nie jest dużo czasu. Za 7 lat spotkamy się w tym podcaście i podyskutujemy sobie o tym, jak tak naprawdę wygląda ta praca. I to myślę, że w mgnieniu oka minie. Tak jak 3 lata przeprogramowanych minęły tak naprawdę w mgnieniu oka. Tak można by było po prostu przemnożyć ten czas razy dwa, no i znajdziemy się w takiej rzeczywistości. To jest osobiście moje czytanie tego artykułu, to jest taki sygnał, żeby tak naprawdę podejmować bardziej świadome decyzje. Co do samych tych możliwości, no to tutaj pozostawiam tobie decyzję, czy chcemy tutaj wchodzić jakoś bardziej głęboko, czy masz też jakieś przemyślenia związane właśnie z wpływem takiego rozwoju elemów na rzeczywistość, jak myślisz?

Marcin:

Trzeba bym tutaj polemizował, bo stwierdziłem, że tu mamy do czynienia z ekstremum. No z ekstremum nie mamy do czynienia, bo mamy do czynienia z ekstrapolowaniem obecnego gdzieś tam stopnia postępu, więc prawda jest taka, że istnieje też niezdrowe prawdopodobieństwo, że to będzie jeszcze więcej, szybciej i mocniej, jeżeli by się okazało, że będzie kolejny przełom i jeszcze ten tempo progresu jeszcze wzrośnie. To jest jakby możliwe i przewidziane przez ten artykuł, więc Pamiętajmy, że to jest ekstrapolacja oparta o obecny ratio progresu, więc dużo. Nawet jeżeli się okaże, że gość dziesięciokrotnie przestrzelił w tych prognozach, to i tak będzie dużo. Jeżeli sobie zredukujemy 2,5 tysiąca lat do 250 lat w jeden dzień, to to też cały czas jest naprawdę dużo. Ciekawe. Niewątpliwie… Myślę, że jest to dowód na to, że ta nasza rzeczywistość się zmieni. Jak bardzo, tego jeszcze nikt tak naprawdę nie wie, aczkolwiek na pewno będzie to zmiana duża, istotna, którą gdzieś tam powinniśmy sobie gdzieś tam głowę zaprzątać w naszych rozważaniach, tak jak powiedziałaś na temat tego czym się zajmujemy, w jaki sposób, jakie zdobywamy umiejętności, na co zwracamy uwagę, co ignorujemy. To zresztą do czego autor tego artykułu na końcu gdzieś tam zachęca. Ja też również bym zachęcał. Tutaj jest dużo fajnych wykresów. Ja pokazuję liczby. Tak jak mówię. Nie traktowałbym tego jako wyroczni, ale traktowałbym to jako analizę możliwego scenariusza z całym dobrodziejstwem inwentarza. Myślę, że jak sobie coś takiego przeczytamy, to też to może właściwie osadzić nasze oczekiwania i podejście do tego, jak AI może wpłynąć na nasze życie. Jeżeli ktoś ma takie podejście bardzo cyniczne i sceptyczne, że to jest nothing burger i w ogóle jak to może wpłynąć na naszą codzienność, skoro ja nawet nie mogę kodu TypeScriptowego w tym wygenerować, no to myślę, że ten artykuł fajnie pokazuje, że trochę sprawa wygląda inaczej i to gdzieś tam nie będzie kwestia dziesięcioleci, tylko nawet właśnie zaledwie siedmiu lat. Jest to ciekawe, dlatego warto słuchać podcastów jak ten i interesować się tematem, bo ten temat prędzej czy później wyskoczy nam z lodówki, dosłownie i w przenośni.

Przemek:

Można powiedzieć, że z lodówki już wyskakuje. Tutaj pytanie jest, powiedzmy, ile poza tą lodówką przeżyje, ale wydaje się, że w tym świecie się naprawdę tyle dzieje i to skupienie jest tak duże informatyki całego świata naukowego, że przeżyje dłużej niż myślimy. Właśnie są te bardziej pesymistyczne głosy, że mamy do czynienia z kolejną bańką. No tak jak powiedziałem wcześniej, nawet jak ta bańka zostanie gdzieś tam przebita jeśli chodzi o taką opinię ulicy, to te wszystkie szacunki, te wszystkie estematy, które tutaj widzimy, te prognozy wskazują, że jeszcze sporo drogi przed nami. I to nie jest tak jak na przykład mały kamyczek do ogródka z kryptowalutami albo z blockchainem, że szukamy problemów, które można rozwiązać technologią. tylko mamy technologię, którą można przyłożyć do wielu problemów i już teraz ona zwraca wyniki, już teraz zwraca jakąś dewidendę, która po prostu okazuje się game changerem w wielu obszarach. Mówiliśmy wielokrotnie o AlphaGo, mówiliśmy wielokrotnie o syntezie i analizie białek, mówimy o tym, co dzieje się w dużych firmach, więc byłoby to nadużyciem jeśli by stwierdzić, że to jest bańka. Może to być bańka inwestycyjna, faktycznie jak to zwykle bywa, przyjdzie odpływ, okaże się, że sporo firm pływa gdzieś tam bez majtek, jak to kiedyś Warren Buffett powiedział, no ale duzi gracze naprawdę będą kontynuować inwestycje w tym obszarze, bo po prostu za dużo się dzieje, za duzi gracze tym tematem się interesują, żeby to wszystko z dnia na dzień padło. Jak się pomylę, to będę odwoływał swoje słowa, ale jak widzę Joe Bidena, który robi briefing w Białym Domu na temat sztucznej inteligencji, to wydaje mi się, że coś grubego wisi w powietrzu.

Marcin:

Myślę, że to jest bardzo dobre podsumowanie tego artykułu i też całego odcinka. Dziękujemy za uwagę. Mamy nadzieję, że się spodobało. Jeżeli chcecie tego typu treści otrzymywać co poniedziałek, to zapraszamy na naszą stronę http.opanuj.pl Tam możecie zapisać się na newsletter, który właśnie wysyłamy co poniedziałek rano. Pojawiają się tam nasze podcasty, ale nie tylko. Również najfajniejsze newsy z branży, ze świata technologii. Trzy takie linki na fajny początek tygodnia można otrzymać. Więc zapraszamy do zapisania się na nasz newsletter.

Przemek:

Dziękujemy serdecznie. To był Przemek i Marcin.

Marcin:

Miłego dnia.

Newsletter Opanuj AI

Subskrybuj ręcznie selekcjonowane materiały z obszarów AI i rynku nowych technologii, które pomagają dowozić lepsze rezultaty i budować kulturę innowacji

Zapisując się do newslettera akceptujesz naszą politykę prywatności.

W każdy poniedziałek
Otrzymuj podsumowanie najważniejszych informacji z branży AI i nowych technologii. Gwarantujemy zero spamu i tylko wartościowe treści.
Tylko najlepsze materiały
Materiały zamieszczane w newsletterze przechodzą proces selekcji, gdzie wymagamy jakości i możliwej do wykorzystania wiedzy.