Podcast Opanuj.AI

Bądź zawsze na bieżąco

2 stycznia 2025

Wielkie Podsumowanie 2024 - AI w Polsce i na świecie (Modele, Benchmarki i Prognozy na 2025)

Słuchaj na twojej ulubionej platformie

Transkrypcja odcinka

Tekst wygenerowany automatycznie - może zawierać drobne błędy i literówki

Przemek:

Cześć, witajcie serdecznie. To jest podsumowanie roku 2024 w podcaście o Panu EA. Witam się z Wami Przemek Smyrdak i Martin Czarkowski.

Marcin:

Cześć.

Przemek:

Postanowiliśmy podsumować ostatnie 12 miesięcy w świecie sztucznej inteligencji i uczenia maszynowego. Na pewno się zgodzicie, że działo się naprawdę sporo. Nie zawsze łatwo odnaleźć się w całym tym skomplikowanym i szybko zmieniającym się świecie. Nie ma co ukrywać. No i z tego powodu mamy dla Was taki skrót najważniejszych informacji i także nasze osobiste rankingi. No i podsumowanie postępów, które w tym świecie się wydarzyły, bo kiedy patrzymy tak dzień po dniu, to czasami można odnieść wrażenie, że być może ta branża nie zmienia się aż tak szybko, być może w firmie OpenAI mamy jeden czy dwa modele, ale tak naprawdę w wielu aspektach te postępy były i dzisiaj Wam o nich opowiemy. Zanim zaczniemy dzisiejszy odcinek, oczywiście zachęcamy do odwiedzania stronę OpenAI z kilku powodów. Między innymi z tego powodu, że znajdziecie tam więcej informacji na temat naszych szkoleń z dziedziny generacyjnej i sztucznej inteligencji dla programistów, dla menedżerów, dla pracowników back-office. Właśnie takie szkolenia przygotowujemy. Mamy sporo referencji, sporo pozytywnych. komentarzy po naszych szkoleniach, więc Wy również możecie się na takie szkolenia zapisać, a zaczynamy od darmowych, zupełnie niezobowiązujących konsultacji, gdzie poznamy Wasze potrzeby. Po drugie zapraszamy do zapoznania się z kursem Cursor programu i z AI. Na ten moment na pokładzie mamy już ponad 300 uczestników. W środku nie tylko informacje o edytorze Cursor, ale również informacje o programowaniu z AI jako takim. Mówimy o teoretycznych aspektach modeli językowych, mówimy o praktykach skutecznej komunikacji, o prompt engineeringu oraz pokazujemy wam przepisy na integrację technicznej, na automatyzację z Make.com. Na Opanuj.ai macie również okazję zapisania się do newslettera Opanuj.ai. Co poniedziałek otrzymacie dzięki temu trzy selekcjonowane przez nas linki. No i będziecie na bieżąco z tym, co działo się w świecie sztucznej inteligencji. w ostatnim tygodniu. Zanim zaczniemy chcielibyśmy jeszcze podziękować wszystkim tym, którzy z nami w ostatnim roku byli. Tak się składa, że Spotify wszystkim twórcom podcastów udostępnia wyniki swojego podsumowania Wrapped, gdzie możemy przyjrzeć się temu, dla ilu z was byliśmy podcastem ulubionym. I tak się składa, że byliśmy podcastem w top 10 dla przeszło 1400 słuchaczy podcastów rozmaitej treści. W top 5 byliśmy dla 904 osób, Więc bardzo nam miło, prawie 1000 osób uważa nas za top 5 podcastów, których słuchacie na bieżąco. Są wzrosty, jest pozytywny feedback. My bardzo dziękujemy za wszystkie komentarze, za cały feedback, który w całym tym roku od Was otrzymywaliśmy. No a teraz czas na podsumowanie. Jest to w pewnym sensie spłata. tego, że ufacie naszemu podcastowi, że ufacie naszej wiedzy. Chcieliśmy wam przygotować właśnie taki skrót najważniejszych informacji i naszej osobistej rankingi tego, co w tym świecie się wydarzyło. A działo się naprawdę sporo i chcemy zacząć od takiej sekcji, którą roboczo nazwaliśmy High Level Progress, czyli takie całościowe podsumowanie tego, gdzie byliśmy na początku roku 2024 i z czym ten rok kończymy. No i chcemy przejść przez kilka aspektów tej technologii, którą omawiamy. No i tutaj Marcin, tobie oddam głos. Mamy kilka takich wymiarów, które postanowiliśmy omówić.

Marcin:

Pierwszym z nich to są ceny, czyli coś co wielu z Was interesuje najbardziej. Najlepsze rozwiązania są ekonomiczne, przystępne i nie opróżnią naszych portfeli. No i tutaj mieliśmy znaczne postępy. Zgodnie z tym, co mówił Sal Altman, co mówił też Chamath Palipatia w podcaście All In niejednokrotnie, no widzimy, że koszt energii i za tym samym inteligencji tych modeli zmierza w kierunku zero, no jakby tej bazowej tylko ceny infrastruktury, no i faktycznie możemy to w tym roku zauważył, że taki trend faktycznie występuje. Na początku roku, w styczniu 2024 roku model GPT-4 Turbo kosztował 10 dolarów za milion tokenów wejściowych i 30 dolarów za milion tokenów wyjściowych. I teraz zrównajmy to z kwotami, jakimi dysponujemy pod koniec roku 2024. Jeżeli chodzi o GPT-4O, no to mamy ceny 3-4 krotnie niższe. Podobnie to wygląda w przypadku Cloth 3.5 Sonnet, a w przypadku Gemini 2.0 Flash, czyli najnowszego modelu od Google. Te ceny są już jeszcze niższe 10-15 krotnie. Tutaj nawet być może i więcej, ale nie jestem tak dobry z matematyki, żeby to liczyć tutaj on the fly, więc nie będę. też przesadzał na korzyść. No tym niemniej mamy bardzo zauważalny spadek kosztów. Chociaż jeżeli spojrzymy na ten nowy paradygmat, jeżeli chodzi o model językowy, o systemy rozumowania, takie jak Open AI O1, no to tutaj te koszty są wciąż wysokie. 15 dolarów za milion tokenów wejściowych i 60 dolarów jeżeli chodzi o tokeny wejściowe. i to jest model O1, a w przypadku nadchodzącego O3, o którym mówiliśmy szerzej w podsumowaniu grudnia, to jeszcze cennika nie znamy, na najpewniej te ceny będą podobne albo i wyższe. Chociaż obyśmy się pozytywnie tutaj zaskoczyli. No tym niemniej ceny spadają. Mnożniki 3.10 myślę, że zadowolą każdego z nas. Oby ten trend się utrzymał i żebyśmy po prostu, no jeżeli tak to będzie wyglądało to pod koniec przyszłego roku te ceny naprawdę będą no już wręcz niezauważalne. Podobnie sytuacja się zmieniała jeżeli chodzi o okna kontekstowe, czyli możliwości LRM-ów w zakresie informacji, które są w stanie utrzymywać w swojej pamięci podręcznej, przetwarzać i brać pod uwagę w naszych konwersacjach, co oczywiście ma duże przyłożenie nie tylko na standardowe rozmowy, a analizę dokumentów, PDF-ów, plików Excel, czy też analizy projektów. programistycznych. Tam no im więcej tego kontekstu tym lepiej tak naprawdę. Standardem w 2023 było 32 tysiące tokenów i to była liczba, która robiła duże wrażenie przy premierze GPT-4. Też no na początku w trakcie GPT mieliśmy do dyspozycji zaledwie 4 tysiące, potem 8 tysięcy i tak to wyglądało przez Większość roku te 32 tysiące było dostępne tylko dla nielicznych. Rok rozpoczęliśmy od GPT-4 Turbo z 128 tysiącami tokenów, które teraz już jest absolutnym standardem i praktycznie każdy model czy to open source, czy to state of the art. Co najmniej tyle oferuje, no ale pojawiło się kilka modeli, które zauważalnie przebiło ten próg. Klod 3.5 Sonnet i Klod Haiku, to jest 200 tysięcy tokenów, no a zdecydowanym liderem jest tutaj Gemini, gdzie mamy od miliona do dwóch milionów tokenów w zależności od wersji modelu, no więc absurdalnie już duże liczby, które ciężko byłoby wysyć i które pozwalają też na analizę naprawdę niemałych projektów programistycznych, więc tutaj też widzimy znaczący postęp i możliwość wykorzystywania LLM-ów nie tylko do prostych kompensacji, ale też do coraz bardziej złożonej analizy Ca-100 większych plików. A jak to wyglądało przy MEG z benchmarkami? Czy tutaj również mieliśmy zauważalne postępy? Czy to modele są tylko tańsze i więcej są w stanie przetwarzać, czy też są najwyżej w świecie lepsze?

Przemek:

No zdecydowanie są lepsze, nie ma co ukrywać. W 2024 roku bardzo często natrafiliśmy na takie stwierdzenie jak wysycenie benchmarków, czyli taką oto sytuację, gdzie coraz więcej modeli właśnie zbliżało się do tej górnej granicy danych testów. No i z tego powodu nie tylko możemy podsumować te benchmarki, które istnieją, ale już chociażby w podsumowaniu grudnia zapowiedzieliśmy, że przed nami kolejne generacje benchmarków, które po prostu będą większym wyzwaniem dla tych modeli, które już teraz bezproblemowo radzą sobie z wieloma benchmarkami. Jeden z popularniejszych benchmarków, który jest istotny dla programistów, bo on pokazuje zdolności modeli językowych w kontekście rozwiązywania zadań pod testy jednostkowe jest benchmark Human Eval. To jest taki benchmark, który praktycznie zawsze pojawia się na karcie modelu albo w release notes, kiedy nowa technologia zostaje wydana. Ten Human Eval pokazuje jak właśnie modele językowe dobrze radzą sobie z rozwiązywaniem zadań. przy określonych założeniach i przy właśnie zestawie testów jednostkowych. Na początku roku GPT-4 było tutaj state of the art. Mieliśmy 67% poprawnie rozwiązywanych zadań. No a teraz sytuacja znacząco poszła w górę, całe te wyniki poszły w górę, bo Cloud 3.5 Sonnet, czyli ten nazywany przez nas królem programowania model językowy, osiąga prawie 94% poprawnych odpowiedzi w tym benchmarku. No i nie ma co ukrywać dla naszej dwójki, też dla was, którzy korzystacie z LLM-ów w programowaniu, W końcu to był rok, kiedy te technologie stały się użytecznymi asystami programisty. LLM-y już nie przeszkadzają. Może nie zawsze są genialne, nie zawsze tutaj spełniają wszystkie nasze oczekiwania, ale po prostu można z nimi pracować, warto z nimi pracować. I na pewno jeśli przejdziecie do edytora, gdzie tego rozwiązania nie ma, no to bardzo szybko poczujecie, że czegoś wam brakuje. Przynajmniej ja tak mam. Pewnego rodzaju dowód anegdotyczny. Marcin się też pewnie zgodzi, wielu z was też pewnie się zgodzi, że przyzwyczailiśmy się do tego, że LLM-y są asystentami programistów. Mamy też benchmarki. które sprawdzają tzw. z jednej strony wiedzę ogólną i wiedzę specjalistyczną. Nas głównie interesują nauki ścisłe. Mamy m.in. taki benchmark MAF, gdzie mamy praktycznie dwukrotny postęp, jeśli chodzi o właśnie te zadania matematyczne i takie umiejętności rozwiązywania problemów logicznych związanych z poszczególnymi wyzwaniami właśnie na tym polu, na polu nauk ścisłych. Pod koniec zeszłego roku tutaj GPT-4 w tym benchmarku MAF miało 48% poprawnie rozwiązywanych zadań, a O1, czyli ten model reasoningowy, model z dodatkowym etapem wnioskowania, no praktycznie rozwala w pył cały ten benchmark, 94,8%, nie ma za bardzo czego zbierać, stąd właśnie potrzeba odnajdywania tworzenia bardziej złożonych, bardziej wymagających benchmarków. No i podobnie to wygląda w innych obszarach nauk ścisłych, na przykład w GPQA Diamond, który sprawdza wiedzę modelu albo umiejętności modelu na poziomie doktoranta w danej dziedzinie problemu. Mamy postęp np. w fizyce z 60% czyli GPT-4O do 92% w przypadku O1. Jeśli chodzi o inne benchmarki z tej generacji to tutaj sytuacja wygląda podobnie, czyli zaczynamy dobijać do sufitu. A my już w podsumowaniu grudnia wspomnieliśmy, że czekamy na dwa szczególnie istotne benchmarki, które będą wyzwaniem w kolejnych miesiącach dla obecnej generacji modeli językowych. Jednym z takich benchmarków jest FrontierMath, który jak twórcy zaznaczają zawiera ekstremalnie złożone i niepublikowane wcześniej problemy matematyczne. No i tutaj liderem jest niepublikowana jeszcze O3, która na dzisiaj radzi sobie z jedną czwartą tych zadań, ekstremalnie trudnych zadań matematycznych. Wiemy, że przygotowywany jest również benchmark ArcAGI2, o którym wspominaliśmy w poprzednim odcinku i tam zgodnie z zapowiedziami autora te wyniki mają krążyć około 30 procent poprawnych odpowiedzi. No więc trzeba te benchmarki obserwować. Warto na to zwracać uwagę tak jak mówiliśmy również w podsumowaniu grudnia. Warto robić też ten vibe check i poprzez praktykę poznawać możliwości modeli. To co widać to jest na pewno fakt że z prostym kodowaniem z prostym wnioskowaniem z udzielaniem odpowiedzi np. z dziedzin fizyki matematyki czy chemii na poziomie ucznia szkoły średniej te modele radzą sobie już naprawdę dobrze i ten próg jeśli chodzi o edukację z każdym miesiącem z każdą generacją po prostu idzie w górę. Co więcej, ta wiedza nie tylko jest dostępna w tańszy sposób, nie tylko jest dostępna w większej ilości modeli, ale ona po prostu pojawia się szybciej i to możemy potwierdzić przytaczając kilka informacji a propos ilości generowanych tokenów, a propos liczby generowanych tokenów na sekundę, czyli takiej popularnej metryki, która pokazuje jak szybko model odpowiada. W 2023 roku GPT-4 na sekundę generował około 30 tokenów na domyślnej infrastrukturze, z której OpenAI korzystało. O1mini zgodnie z informacjami robi to, o ile dobrze liczę, prawie 8-9 razy szybciej 226 tokenów na sekundę, więc mamy naprawdę istotne przyspieszenie w tym, jak modele odpowiadają. W wielu modelach, pewnie też się Maciej zgodzisz, mamy już takie wrażenie, gdzie ta odpowiedź się po prostu pojawia w jednym momencie, nie musimy czekać na te kolejne literki, no i to oczywiście poprawia całe to doświadczenie, wrażenia, korzystanie z tych technologii. Co więcej, postępy mamy też na polu programowania, jeśli integrujecie się z modelami językowymi poprzez API, No to ostatni rok był takim rokiem, kiedy tak naprawdę te rozwiązania zyskały tę wymaganą, potrzebną ogładę. My też często o tym wspominaliśmy na początku roku, że można budować eksperymenty, ale jeśli chcesz budować aplikacje produkcyjne, to być może będzie ci brakować wielu takich aspektów, API LLM’ów, które są już dostępne jakby w innych obszarach programowania. No na dzisiaj, na koniec 2024, na początku 2025 roku wygląda to zdecydowanie lepiej. I w kilku obszarach. Przede wszystkim koszty w dół. Możemy wysyłać zapytania batchowe, możemy tak naprawdę kolejkować nasze zapytania w większej ilości. To sprawia, że koszty idą w dół. Możemy korzystać z tzw. Prompt Caching with Predicted Outputs. Jeśli model jest Pewny tego, co powinien dla nas wygenerować, jeśli np. nasze zapytanie powtarzało się wśród innych programistów, to taką odpowiedź z modelu albo z API, z którego korzystamy, otrzymamy szybciej i w zdecydowanie niższej cenie. No i możemy też ograniczać zapytania, jeśli integrujemy LLM-y z aplikacjami dla użytkownika końcowego, to mamy w końcu rate limiting, który sprawi, że po prostu nie pójdziemy z torbami przez to, że ktoś wykorzysta cały dostępny budżet. Jeśli jesteście administratorami i wdrażacie tego typu rozwiązania na poziomie organizacji, no to na pewno ucieszą was wszelkiego rodzaju playgroundy, gdzie można w bezpieczny sposób testować możliwości modeli, można przygotowywać sobie szablony promptów, można tworzyć różne wariacje rozmów, które następnie będziecie testować. Mamy klucze, które pozwolą Wam również bardziej precyzyjnie, w bardziej granularny sposób udostępnić dostęp do modelu np. jakiemuś fragmentowi Waszej organizacji. My z takich projektów też często korzystamy, bo jest to bardzo użyteczna sprawa, kiedy np. jeden klucz udostępniamy na warsztaty, drugi do jakiegoś projektu, trzeci do automatyzacji. W poprzednich miesiącach czegoś takiego nie było. W 2024 roku to stało się praktycznie standardem. No i cała masa lepszych narzędzi developerskich, zliczanie tokenów, właśnie testowanie odpowiedzi z modeli, fine tuning najlepszych modeli, czy sposoby na to, żeby te odpowiedzi z modeli były interpretowane w takim formacie jakiego oczekują nasze aplikacje, tutaj między innymi myślę o structured outputs, czyli możliwości zmapowania odpowiedzi do konkretnego formatu, do konkretnej schemy, którą takiego modelowi przekażemy, więc jest taniej, szybciej, jest więcej wiedzy, naprawdę warto się tym tematem interesować.

Marcin:

Dokładnie tak. I teraz mamy dla Was taki szybki przegląd kalendarza z 2024 roku. Omówimy dla Was najważniejsze wydarzenia z każdego kwartału. I to jest bardzo fajne doświadczenie, bo zobaczymy jak wiele się zmieniło i jak rzeczy, które już traktujemy jako oczywistość, normalność, pojawiały się tak naprawdę zaledwie kilka miesięcy temu. To jest ciekawe doświadczenie. Zacznijmy od pierwszego kwartału, od stycznia. Tam mieliśmy premierę planu ChargePT Team. Mieliśmy również premierę Gemini jako takiego, który wcześniej był zwany Bardem. To już naprawdę się kojarzy z zamierzchłymi czasami. Ta nazwa Gemini już się gdzieś tam bardzo nam obyła. I również pojawiły się Style References z Midgernia, z których również korzystamy na bieżąco i jest to bardzo popularna funkcja. W lutym były kolejne modele z rodziny Gemini 1.5. Mieliśmy zapowiedź Sory. No i mieliśmy też kontrowersyjne woke image generation od Google’a, gdzie pojawiali się czarnoskórzy ojcowie założyciele Stanów Zjednoczonych i tak dalej i tak dalej. Szybko ten widziu został wycofany. Następnie mieliśmy premierę Cloda 3 w marcu. Również w tym okresie, z tego co pamiętam, Clod w ogóle pojawił się w Europie jako Clod AI i jako Wcześniej to były modele zupełnie niedostępne na naszym kontynencie. Ciężko mi sobie przypomnieć te czasy, gdzie się Skoda codziennie nie korzystała. Była też kontrowersyjna, głośna. zapowiedź Devina i mieliśmy również głosowania i uchwalenie AI Art w Unii Europejskiej. O tym jeszcze za chwilę na dyskusję. Myślę, że zostawimy sobie więcej miejsca, Przemku, podczas naszych rankingów, bo tam wiele tych kluczowych wydarzeń tak czy siak się będzie przewijało. Oddam Ci głos. Opowiedz, co działo się w kwartale drugim.

Przemek:

No, znowu kilka takich marek, kilka takich logo, które wydaje się, że są z nami tak naprawdę od zawsze, a to tak naprawdę 2-3 kwartały temu. Chociażby premiera Lamy 3, czyli rodziny modeli open source od Mety, które również depczą po piętach tym firmom, które publikują zamknięte modele. Mark Zuckerberg wykorzystuje tą strategię open source jako strategię tego, żeby Meta gdzieś tam wpychała się właśnie w ten świat. generatywność sztucznej inteligencji. Lama 3 to jest tak naprawdę dopiero kwiecień tego roku. Mieliśmy znowu tańsze modele w kwietniu, GPT-4 Turbo i inne. Mieliśmy głośne urządzenia, które miały być głośne, które niestety nie skończyły jak kolejny iPhone, taki jak Humane AI PIN i Rabbit R1. Jeszcze w zeszłym roku zastanawialiśmy się, czy może nie przegapiliśmy jakiejś inwestycji, może warto byłoby kupić takie urządzenie, opowiedzieć o nim, może zmieniłoby nasze życie. Okazuje się, że pierwsi recenzeci jakby niezbyt pozytywnie o tych urządzeniach się wypowiadali i to tak dość politycznie poprawnie określę, jakby łagodnie, więc naprawdę tutaj sporo się działo. W maju mieliśmy Open AI Dev Day i to był myślę naprawdę istotny dzień jeśli chodzi o ten świat generatywnej sztucznej inteligencji, bo pojawił się model GPT-4O z całą masą rozszerzeń, które pokazywały jakby znowu nową generację modeli, nowe podejście do modeli multimodalnych, czyli już nie tylko tekstowa komunikacja z modelem, ale również właśnie Advanced Voice Mode, udostępnianie ekranu, udostępnianie widoku z kamery naszego smartfona, ale też kontrowersje, chociażby z Scarlett Johansson. W podsumowaniu Maja opowiadamy o właśnie takiej aferze, kiedy to znana aktorka z Hollywood zabroniła wykorzystywania swojego głosu i oskarżyła OpenAI o to, że właśnie pojawiła się jako jeden z głosów, jako jeden z lektorów właśnie w Advanced Voice Mode. To jest chyba, jeśli się nie mylę, do dzisiaj sytuacja niewyjaśniona, Marcin, czy tam mamy jakieś konkluzje? Chyba po prostu skończyło się na aferze albo na ugodzie, o której nie wiemy. W maju mieliśmy jeszcze kolejną generację Gemini, Gemini 1.5 Flash, a w czerwcu pojawił się właśnie król programowania, czyli Cloud Triple Sonnet. Dla wszystkich programistów bardzo istotna data. Myślę, że wtedy OpenAI tak naprawdę zaczęło się obawiać konkurencji bo to był taki taki moment kiedy okazało się że jednak jest świat poza rozwiązaniem Open AI. Zapowiedź Apple Intelligence o którym też chcę więcej powiedzieć w mojej topce nie w tej sekcji pozytywów ale o tym jeszcze dalej. No i Nvidia na szczycie wyceny giełdowej okazuje się że dostarczanie jakby infrastruktury dla całego tego szaleństwa generatywnej sztucznej inteligencji to jest całkiem opłacalny biznes. Okazało się że Nvidia to już nie tylko jest firma dla graczy, ale firma, która po prostu będzie zmieniać świat, będzie dostarczać łopaty w całej tej gorączce generatywnej sztucznej inteligencji. Kwartał trzeci. Co tam ciekawego w kwartale trzecim?

Marcin:

Firmy z generatywnej sztucznej inteligencji nie robiły sobie wolnych wakacji, nie odpoczywały. Wiele ciekawych wydarzeń miało miejsce. DeepMind AlphaProof robił furorę na olimpiadzie matematycznej. Mieliśmy również premierę Google Notebook LM, o którym również będziemy mówili w ramach rankingu. Niesamowite rozwiązanie, które póki co nie zdobyło jakiejś szerszej rozpoznawalności. ale postaramy się trochę Google’owi pomóc w marketingu dzisiaj. Mieliśmy również premierę GPT-4O mini i Lamy 3.1 w tej największej wersji z tego co pamiętam 400 miliardów parametrów. Następnie był w sierpniu dość głośno dyskutowany artykuł o tym czy branża genetywnej sztucznej inteligencji jest w ogóle w stanie na siebie zarabiać w dłuższym terminie, no bo są póki co ogromne inwestycje, ogromne koszta, a mimo że są też przychody, no to one są dalekie do tego, aby te inwestycje spłacać. Pojawiły się pierwsze wątpliwości, czy ten cały hype będziemy w stanie spłacić, czy te firmy po prostu dotrwają do tego słynnego AGI, na którym mają zarobić krocie. I też zaczęły się pojawiać pierwsze wątpliwości czy nie docieramy do granic możliwości tych tradycyjnych LLM-ów, do tego końca prawa skalowania itd., itd. Mieliśmy również release Bielika 2, czyli polskiego modelu językowego, który już naprawdę mógł się pochwalić wieloma świetnymi wynikami, metrykami. Mamy również we wrześniu zapowiedź OpenAI. O1, czyli nowej klasy systemu, nowego klasy modelu, który rozumuje w czasie rzeczywistym, podczas pytania na pytanie. Mieliśmy META LAM 3.2, tym razem w wersji multimodalnej, która nie pojawiła się w Unii Europejskiej ze względu na regulacje. I również widzieliśmy wydarzenie MetaConnect i podczas tego wydarzenia była premiera okularów Orion, czyli takich okularów, które wykorzystuje rozszerzoną rzeczywistość i właśnie modele. AI do pracy, całkiem imponujące narzędzie, chociaż jeszcze bliżej temu do prototypu niż produktu. No i kwartał ostatni, co się działo w tych ostatnich miesiącach przemku.

Przemek:

W październiku GitHub Copilot postanowił zawalczyć opozycję lidera, postanowił wrócić gdzieś tam z otchłani tych asystentów programowania. Pojawiła się możliwość wyboru modeli, czyli znowu bardzo istotne rozszerzenie dla Copilota, które otworzyło go na najlepsze rozwiązania na rynku, chociaż z tym wdrażaniem jeszcze jest tak sobie, o tym również pewnie pogadamy czy to dzisiaj czy w kolejnych odcinkach. Głośne wydarzenie to jest na pewno Nagroda Nobla dla sztucznej inteligencji jako takiej, tak naprawdę dla ojców, nowoczesnych podejść do uczenia maszynowego. No i również Demis Hassabis z Deep Mind za Alpha Fold. Sztuczna inteligencja w takich kategoriach, które wywoły również troszkę kontrowersja, co najmniej dyskusji a propos tego, czy to kategorie na pewno poświęcone tematyce sztucznej inteligencji i informatyki. Okazuje się, że i w fizyce, i w biologii ta sztuczna inteligencja na Nobla zasługiwała. W październiku mieliśmy również polskie konsultacje ustawy o sztucznej inteligencji. Na ten temat również mamy odcinki, możecie ich posłuchać, m.in. z dr Leszkiem Bukowskim. W listopadzie dyskusja o rekrutacji w erze AI, m.in. z powodu po prostu końca roku i tego jak przygotować się na nowy rok. Jednym z takich większych wyzwań będzie na pewno rekrutowanie programistów z dostępem do LLM-ów. O tym również sporo debatowaliśmy. Pojawił się DeepSeek R1, czyli szybka odpowiedź na O1 właśnie z Chin. A także zapowiedzi, czy też propozycja nowego projektu Manhattan, który tym razem nie ma być związany z bronią jako taką, ale właśnie ze sztuczną inteligencją, z inwestycjami w sztuczną inteligencję. Pewnie można dyskutować, czy AI to nie jest broń, ale to już na kolejne odcinki. No i w grudniu Apple Intelligence, pełne wdrożenie tutaj pewnie z gwiazdką, kontynuacja debat nad regulacjami, cały ten mem Europa kontra Stany Zjednoczone. Plany na 2025, no to jest zapowiedź między innymi o trójki, nowe generacje modeli i od Google, i od Antropica, cały shipmask podsumowaliśmy w poprzednim odcinku, no i modele od Google, czyli VO2 i 2.0 Flash. Naprawdę sporo się działo, tak jak Marcin wspomniał, naprawdę jest to intrygujące, jak wiele z tych nazw, logotypów, marek, czy wydarzeń, tak naprawdę wydarzało się, miało miejsce w przeciągu ostatnich 12 miesięcy, a nie na przykład dwóch lat, albo 12 lat, ale właśnie taki to szalony obszar informatyki, ta generatywna sztuczna inteligencja. My z tego kalendarza postanowiliśmy przejść do naszych osobistych rankingów. Każdy z nas na ten świat sztucznej inteligencji patrzy troszkę inaczej, więc wybraliśmy takie pięć kategorii, które naszymi oczami podsumujemy, gdzie wydarzyło się coś naprawdę istotnego i będzie to przełom, technologia roku, zaskoczenie roku, rozczarowanie roku, rolmodel albo trendsetter, ktoś albo coś, kogo warto obserwować, no i nasze predykcje na 2025 rok. Myślę Macień, że tak kategoria po kategorię możemy sobie przechodzić. i dyskutować o tym, co się wydarzyło. Na początku chyba to, co interesuje wszystkich innowatorów, twórców, technologii, czyli przełom albo technologia roku. Pytanie do ciebie. Co było liderem tej kategorii?

Marcin:

Moim liderem był Clod 3.5 Sonnet, który jak wspominaliśmy miał premierę w czerwcu. No i dość szybko zapracował sobie na reputację najlepszego modelu dla programistów. No i moim zdaniem zdecydowanie tak było. To był pierwszy model, który w pełni mnie zadowala w codziennej pracy. Oczywiście nie jest idealny. ale naprawdę robi wrażenie i można go polecić każdemu programiście z ręką na sercu. Co go charakteryzuje? Świetna interpretacja promptów, bez konieczności dużej ilości iteracji. Zwykle ten model jest w stanie zrozumieć w kontekście programistycznym o co nam chodzi. i te odpowiedzi są związane z tematem, czy poprawne w pełni zawsze, no to to już jest jakiś tam element losowości zależny od wielu czynników, trudności itd. itd. Aczkolwiek odpowiedzi przynajmniej zawsze są na temat i rzadko dostajemy coś, co jest randomowe i takie wprowadzające nas w zmieszanie, co w przypadku poprzednich modeli. miało w najzwyczajniejszym świecie miejsce stosunkowo często. Cena i szybkość tego modelu również sprawia, że można z niego komfortowo korzystać na co dzień i to również sprawia, że ma on taką reputację, jaką ma. Osoby, które są zajawione tematem relatywnej sztucznej inteligencji, to naprawdę rzadko twierdzą cokolwiek innego na temat tego, z jakiego modelu w kontekście programistycznym warto korzystać. Moim gdzieś tam takim drugim miejscem jest kursor. Sprawdzałem Twoją listę, więc może oddam Ci teraz głos.

Przemek:

Na mojej liście kursor jest na miejscu numer jeden. To nie jest wcale takie oczywiste, no bo można na ten tytuł tej kategorii, czyli przełom technologia roku, patrzeć oczywiście z wielu stron, no czy mówimy o przełomie naukowym, czy patrzymy na przełom jakby w naszym sposobie pracy. Technologia roku też to jest bardzo względna, bardzo relatywna kategoria. No dla mnie kursor to jest po prostu Chyba najmocniejszy dowód na to, że z tą sztuczną inteligencją już tak naprawdę będziemy na amen. Ja przyznam szczerze, że jestem bardzo sceptyczny, jeśli chodzi o wszelkiego typu nowe wynalazki, rozwiązania, startupy, demka, które mają zmienić moje życie i to, jak pracuję. Nigdy nie byłem, powiedzmy, świerem produktywności, to-do-list, systemów do organizacji wiedzy itd. Kurczę, jak wziąłem tego kursora, to naprawdę trudno z niego zrezygnować. Naprawdę mam kilka edytorów zainstalowanych na moim komputerze. Ostatnio też testowałem sobie AI Assistant’a od JetBrains’ów. No i naprawdę nie ma czegoś takiego jak kursor na razie na rynku jeśli chodzi o stabilność, o jakość. Pod spodem oczywiście Cloud 3.5 Sonnet to jest jakby fundament tego co ja nazywam kursorem w tym przypadku, bo nie chodzi mi tylko o software jakby jako edytor kodu, ale całą taką integrację. I też myślę, że na rzecz kursora pozytywnie działa to, że mamy to AI, które działa po prostu out of the box, czyli nie bawimy się w plug-in’y, nie składamy tego edytora. Ja tego nienawidzę po prostu jak ktoś mi mówi, że Do rozpoczęcia pracy przez miesiąc przygotuj się. instalując 17 paczek, 28 zależności i tam 45 różnych modeli. Kurczę, biorę tego kursora, naprawdę w tym planie płatnym mam jakiś tam zakres tych zapytań, które mogę po prostu wysyłać i to wszystko działa. Podoba mi się to, że to działa i naprawdę mocny gdzieś tam nawyk, taki muscle memory zbudowałem już, jeśli chodzi o współpracę ze sztuczną inteligencją. Do pewnego momentu mieliśmy też większą otwartość kursora, to też pewnie będzie się zmieniać, ale mogliśmy bardzo łatwo podejrzeć, co ten kursor wysyła na platformy wystawiające LLM-y. mogliśmy go integrować z Olamą to też myślę, że będzie się zmieniać, bo kursor będzie jakby uszczelniał cały ten swój ekosystem, ale naprawdę całościowo i tak jest to rozwiązanie, które naprawdę pozwoliło nam myślę, że tak jak mało które dowozić takie rezultaty, które w tym roku dowieźliśmy i tam właśnie to AI było. Jeśli chodzi o runner up to też pod kątem takiego czystego utility to jest mid journey, bo akurat w naszym przypadku, gdzie tworzymy dużo prezentacji, szkoleń, wizualizacji tych naszych pomysłów, opakowań, różnego rodzaju produktów no to po prostu to Midjourney jest, płacimy abonamenty za Midjourney. Myślę, że to jest must have, myślę, że w 2025 roku pójdziemy sobie troszkę dalej. Tutaj tip od ciebie z konferencji FutureConf, to jest Confi UI, więc też od ciebie tą rekomendację biorę i myślę, że jeszcze głębiej w ten świat generowania ilustracji wejdziemy. Natomiast na pewno mamy co najmniej 2-3 takie narzędzia, które bardzo mocno na nasz workflow wpłynęły i nie są tylko jakby w naszym notion jako coś, o czym chcemy powiedzieć, a z tego nie korzystamy, nie? I z kursora jest mydlone, że bardzo mocno korzystamy i opłacamy.

Marcin:

Dokładnie tak. No i może przejdźmy teraz do drugiej kategorii, jaką jest zaskoczenie roku. Moim zaskoczeniem był notebook LM od Google, czyli spersonalizowany asystent researchu, do którego możemy wgrywać duże ilości materiałów, pdfów, dokumentów i potem korzystając właśnie z rozwiązania Google’a, szybciej przyswajać wiedzę. Mamy od razu do dyspozycji szybkie i jakościowe podsumowanie, z trafnym referowaniem źródeł we wgranych materiałach. Mamy również zestaw gotowych analiz tych dokumentów, od jakichś często zadawanych pytań po plan nauki. Możemy oczywiście z tymi materiałami czatować, zadawać pytania, Naprawdę działa to bardzo fajnie. Im również ciekawą funkcją jest generowanie edukacyjnych podcastów, w których mamy AI hostów i oni brzmią naprawdę autentycznie, są tam emocje. Brzmi to no niemal jak dwójka rozmawiających ze sobą ludzi. No i co jest niesamowite, to wszystko jest dostępne za darmo, więc naprawdę Warto z tym rozwiązaniem się zapoznać i z niego korzystać. Ja robię to często i zawsze jestem zachwycony. Tak więc na notebooklm.google taki specyficzny url jest. Warto sobie zajrzeć i warto korzystać. Myślę, że będziecie pod wrażeniem. Ja się w ogóle takiego produktu nie spodziewałem. Nie był też on ani specjalnie gdzieś tam promowany. Raczej trzeba było być w tym naszym rabbit hole generatywnej sztucznej inteligencji. Coś mi się wydaje, że 90% ludzi w ogóle nie jest świadoma, że takie rozwiązanie istnieje. Skąd to moje zaskoczenie?

Przemek:

U mnie natomiast polskie poletko. Zamiana prezenterów radiowych na sztuczną inteligencję Off Radio Kraków. Znowu to jest taka nieoczywista kategoria, bo jak coś się nazywa zaskoczeniem roku, to można by tutaj pewnie podać 10 takich pozycji, Marcin. Patrząc na technologię, pewnie nie wierzyliśmy, że nasz workflow aż tak mocno się zmieni, a to już się dzieje. Ale jak miałbym powiedzieć, co było naprawdę takim wydarzeniem, w które nie dowierzałem i które się potwierdziło, to było właśnie to, że w polskim publicznym radio zwolniono pracowników i zastąpiono ich sztuczną inteligencją. Jakby niezależnie od komu, niezależnie od tego, jak to fatalnie się skończyło, jak to zostało zakomunikowane, naprawdę w to nie dowierzałem. Czytałem sobie np. newsy Spotify, które eksperymentuje z DJ-ami, opartymi o sztuczną inteligencję. Wiele platform podcastowych też eksperymentuje z takimi transkrypcjami. Na YouTubie od niedawna zauważyłem, że można sobie dubbing włączyć w kilku językach, ale to, że w Polskim Radiu Kraków będzie aż taka drama przez sztuczną inteligencję, będzie taki hard release, no to powiem wam, że kurcze, wow, kurcze wow. Też mamy dedykowany odcinek, gdzie o tym mówimy, więc może nie będę tutaj za dużo czasu zabierał. Tam też głębiej wchodzimy w różnego rodzaju konsekwencje właśnie tych zmian, chociażby jeśli chodzi o publicystykę, o dziennikarstwo itd. No ale to była taka topka. Pytanie brzmi, która branża znowu obudzi się z takim samym wow w przyszłym roku, bo coś mi mówi, że radio to nie jest koniec takich historii niestety.

Marcin:

Dokładnie tak, jeżeli chodzi o runner-up’a w tej kategorii, no to dla mnie była to utrata takiej jasnej, oczywistej przewagi konkurencyjnej ze strony OpenAI na korzyść progresującego w dużym tempie Antropica i Google’a, tak więc już nie jesteśmy w świecie, gdzie mamy jednego oczywistego lidera, no tylko już każda z tych większych firm, która liczy się w tym wyścigu, ma takiego swojego konika, który może się pochwalić. No i widać też, że bardzo szybko te koniki są kopiowane i oferowane alternatywy dla wielbicielów danej marki. Więc to jest też na pewno coś, co Z jednej strony może nie było to już nie wiadomo jakim zaskoczeniem, ale w 2023 roku ta przewaga OpenAI była mega zauważalna i raczej po prostu czekaliśmy tylko na kolejne update z ich strony. I bardzo szybko te firmy konkurujące nadgoniły, co pokazuje o tym, jak wysokie jest tempo. W innych branżach myślę, że ta silna pozycja Open AI utrzymałaby się trochę dłużej niż zaledwie rok.

Przemek:

Tutaj też widać, jak ważne są takie długoterminowe inwestycje, tak jak np. o Google mówiliśmy i YouTubie. Dopiero w przypadku np. takiego VO2 widać, jak interesującą, wartościową decyzją było to, żeby Google YouTube’a kupił. już 10 czy 15 lat temu, bo nagle okazuje się, że z roku na rok możesz przeskoczyć lidera branży tylko dlatego, że masz najpopularniejszą platformę do hostingu wideo. I tak jak wspominaliśmy wielokrotnie, nie jest to do końca transparentne, dlaczego te modele od Google’a są takie dobre, ale mamy przypuszczenia, że to może mieć związek z YouTube’em. Także ja tutaj się też podpisuję. Nie mam akurat runner-upa w zaskoczeniu roku, ale podpisuje się pod tym, że naprawdę fajna końcówka roku Google’a i dla mnie na przykład bardziej istotna niż ten Shipmas, który był takim trochę przedmuchanym jednak okresem tego grudnia, tak bym powiedział.

Marcin:

Dokładnie tak. Przejdźmy teraz do najmniej przyjemnej kategorii, aczkolwiek potrzebnej, a jest nim rozczarowanie roku. Dla mnie myślę, że słuchacze tego podcastu regularnie nie będą specjalnie zaskoczeni. Jest uchwalenie EIA Act przez Parlament Europejski. Warto tu jeszcze wspomnieć, że żaden polski europoseł nie głosował przeciw i zaledwie kilku wstrzymało się od głosu. Ogólnie większość Parlamentu Europejskiego głosowała za. Głosów przeciwnych było zaledwie 40 z groszem względem tego, co kojarzy ponad 600 europosłów, więc widzimy mniej więcej jak to wszystko się rozłożyło. Nie będę też się szczególnie rozwodził na temat problemów, jakie mam z tą ustawą. Warto wspomnieć przede wszystkim o tym, że jest brak jasności jak dokładnie mierzyć i oceniać ryzyko w różnych kontekstach, a to ryzyko jest centralnym elementem tej ustawy. Są również trudności w interpretacji wymogów dotyczących przejrzystości i wyjaśnialności tego AI. Jak to wszystko się przykłada na szarą rzeczywistość? Te przepisy najpewniej będą hamowały innowacyjność europejskich firm i blokowały dostęp do rozwiązań z innych kontynentów na terenie Unii Europejskiej. Będą również wysokie koszta dostosowania się do tych regulacji i są też również złożone wymogi co do dokumentacji, co do biurokracji. co jest szczególnie ociążliwe dla małych i średnich firm i daje nierówną przewagę korporacjom, które mają większe zasoby. To jest również ważny problem. No i na dobitkę, tutaj jako taka dostawka do tego rozczarowania roku jest to, że w polskim rządzie jeszcze trwają dyskusje o tym, żeby wdrożyć na poziomie polski dodatkową ustawę, która jeszcze ten EIA-akt ma rozszerzać o jeszcze więcej biurokracji, o jeszcze więcej kontroli, żeby jakby już w marcu tego roku Parlament Europejski nie darwał, żeby było wystarczająco ciężko. No to w Polsce chcemy, żeby było jeszcze ciężej. Mam nadzieję, że mimo wszystko te dyskusje będą skręcały w coraz lepszą stronę. Tak zresztą się dzieje, bo pierwsze propozycje były totalnie absurdalne. Na szczęście pod falą krytyki są plany zmian i trochę rozluznienia tego wszystkiego. Trzymam kciuki, żeby to się skończyło jak najlepiej. zupełnie nie rozumiem potrzeby polskiej ustawy w obliczu tego, że mamy już ten EIA, który i tak i tak w naszym kraju będzie obowiązywał.

Przemek:

No i rozczarowaniem tak naprawdę jest też to, że jakby nasz sentyment się nie zmienia tak naprawdę, bo my już przez dłuższy czas mówiliśmy o tym, jak to prawdopodobnie będzie wyglądać, więc jakby możesz tylko potwierdzić, że to dalej jest ten sam kurs, ta sama ścieżka, o której tutaj przez wiele miesięcy mówimy, też pewnie tutaj plus jeden mogę dać. Jeśli chodzi o moje rozczarowanie roku, to jest to niestety Apple Intelligence. I szczerze mówiąc, kiedy Apple ogłaszał Apple Intelligence na przełomie maja i czerwca, ile dobrze pamiętam, to aż takim rozczarowaniem to nie było. Wydawało mi się, że Apple ustawi się właśnie gdzieś tam w tym samym miejscu, co duże firmy, udostępni przy okazji właśnie rozwiązania oparte o modele językowe. na milionach rozwiązań, które w kieszeniach nosimy. iPhone najpopularniejszy smartfon w USA, więc szybka adopcja, co może pójść nie tak. No ale okazuje się, że od maja do grudnia tak naprawdę nic poza Apple Intelligence się nowego nie pojawiło, a dodatkowo mamy bardzo wątpliwej jakości rollout. Jednym z przykładów jest chociażby kampania reklamowa, która w przypadku Apple zawsze odwoływała się do pozytywów osób kreatywnych, do osób, które korzystają z ich urządzeń, rozwiązań itd. A tutaj, sorry że to powiem, mamy po prostu Apple Intelligence dla idiotów. Mamy Apple Intelligence jeśli nie potrafisz pisać, jeśli nie potrafisz reagować maila, jeśli nie potrafisz kontrolować swoich emocji, jeśli szef cię wkurzył i się nie uważałeś na spotkaniu, to tam jest Apple Intelligence i dzięki temu unikniesz zwolnienia. Taka była ta kampania promocyjna. Podobna kampania promocyjna była ostatnio w przypadku nowego iPada, także myślę, że tam coś złego się dzieje jeśli chodzi o taki ogólny vibe tej firmy. No ale to nie wszystko, też nie mamy po prostu dostępu do tego Apple Intelligence w Europie i znowu mógłbym powiedzieć, że pewnie nic dziwnego, bo do wielu rozwiązań nie mamy dostępu, ale w Apple Intelligence to znowu się potwierdza. Jest to tak naprawdę kontynuacja tego trendu, który widzieliśmy w Siri. Siri też w języku polskim jest tak naprawdę jakimś żartem w wielu kategoriach i też musimy czekać na tą właściwą wersję Siri. No i co ważne też myślę z punktu widzenia technologii i infrastruktury, Apple musi się wspierać firmą OpenAI. Mamy fallback do Cheta GPT, mamy fallback do najlepszych rynkowych modeli, bo w ostatnich latach Apple niczego podobnej jakości nie wypracowało. Tutaj problemem Apple’a myślę jest to, że oni przyzwyczaili nas do takich corocznych rolloutów, corocznych premier. Jakby nie mamy z miesiąca na miesiąc nowości od Apple’a, czekamy na konferencje WWDC. Zawsze w lecie dowiadujemy się nad czym Apple pracuje. No ale tu jest właśnie niestety konsekwencja tego, że zawsze Apple przez to zostaje w tyle. Z tego co wiem ma się to zmienić, bo czytałem informacje o tym, że Apple ma przejść na taki bardziej gęsty, częstszy kadens release’owy, na taką kadencję release’ową, dzięki czemu co miesiąc, co dwa miesiące będzie się pojawiać od Apple coś nowego. No ale w tym roku mamy jeszcze taki cykl od lata do lata, więc mamy tak naprawdę fallback, mamy naprawdę dziwną kampanię promocyjną, no i mamy ten ograniczony rollout. Wydaje mi się, że w tym momencie, czy to Antropic pokazuje, czy OpenAI, czy Google, no w Europie mogłaby się część tych rozwiązań pojawić, a z jakiegoś powodu się nie pojawia, więc niestety moje serce fanboya Apple tutaj cierpi. A jeśli chodzi o to pole nasze lokalne, to taki dodatek, całe to zamieszanie wokół polskiego podejścia do sztucznej inteligencji, ideas NCBR, zmiana władzy, zmiana ludzi, niejasne budżety, nie do końca jasne to, Czy warto jest inwestować w tą sztuczną inteligencję w Polsce? Kim my chcemy być, jeśli chodzi o tą sztuczną inteligencję w Polsce? Czy to jest właśnie te 70 milionów, czy to jest ten 1 miliard? Profesor Sankowski, który gdzieś tam również był na karuzeli zwolnień i zatrudnień, ostatnio wrzucił takiego tweeta, gdzie mówi, że niestety najgorsze jest to, że nie wiadomo, co będzie. To nie jest tak, że masz jakiś jasny plan, jasną roadmapę. Jest po prostu zmiana za zmianą, czy to w Ministerstwie Nauki, czy to w Ministerstwie Cyfryzacji. I to wszystko wskazuje, że po prostu tak ważny sektor, jak sztuczna inteligencja jest w Polsce gdzieś tam na siódmym, ósmym, żeby nie powiedzieć piętnastym miejscu, jeśli chodzi o priorytety polskiej nauki, więc to u mnie.

Marcin:

Dla mnie jako takie gdzieś tam drugie miejsce, jeżeli chodzi o rozczarowania, jest to Wearable AI, o którym wspominaliśmy w podsumowaniu roku, Rabbit R1, Human AI Pin, Friend. Ogólnie co do zamysłu, sama kategoria produktów wydaje mi się obiecująca, interesująca. Ale te najgłośniejsze premiery tego roku to były kompletne flopy na granicy skamów, których rzeczywistości skrajnie odbiegały od tego, co było promowane i obiecywane. Obawiam się, że to będzie miało negatywny wpływ na cały ten obszar produktów i być może niczego ciekawego się nie doczekamy i w roku 2025, bo wyschną fundusze na tego typu inicjatywy po tak negatywnym PR-ze i tak dużej ilości do negatywnego odbioru, w pełni zasłużonego w przypadku tych produktów, chociaż no szkoda, że w tak nowym obszarze elektroniki, no takie były gdzieś tam pierwsze dokonania. Kolejna kategoria, może Przemku ty ją otworzysz tym razem, a jest to role model trendsetter firma, osoba, która naszym zdaniem warto śledzić, warto też można powiedzieć podziwiać za osiągnięcia z tego roku.

Przemek:

No więc ja tutaj mam dwie pozycje i firmę i osobę. Jeśli chodzi o osobę, to jest szybsza, krótsza propozycja Tibor Blacho jest taka osoba na Eksie, taki pan, który przedpremierowo publikuje mnóstwo ciekawych lików na Eksie. Jak obserwujecie jego konto, to na przykład co rano mogliście się dowiedzieć o tym czego będzie dotyczył wieczorny stream OpenAI. On też robi scrapping stron, podgląda adresy URL, podgląda domeny, które firmy kupują i po prostu informuje na exie o tym, kto tam gotuje. Czasami może to zepsuć frajdy z obserwowania jakichś nowości, no ale o ile pamiętam on między innymi publikował leaky Canvasa, on publikował leaky custom GPTs i tak dalej i tak dalej, więc warto obserwować jeśli obserwuje was gdzieś tam taka insajderska perspektywa. Tibor Blacho jeszcze raz, a jeśli chodzi o firmę to dla mnie to jest Antropic, czyli można powiedzieć taki runner up, ale jeśli chodzi o dostarcze technologii no to mój i chyba twój też ulubieniec Cloud 3.5 Sonnet, ale też naprawdę fajna działalność taka nulet sharingowa, czy to jeśli chodzi o konstytucję AI, model, kontekst, protokol, czy jakieś takie standaryzowanie tego podejścia do sztucznej inteligencji. Naprawdę fajny kontent na blogu w grudniu myślę, że takim absolutnym topem, takim boomem było właśnie to podejście do analizy była właśnie ta analiza podejść agentowych do rozwijania aplikacji, podsumowanie tego co firmy właściwie z tymi agentami robią, jak wygląda przepływ danych, jakie wzorce projektowe możemy tutaj definiować, coś co po prostu będzie tutaj wprowadzać sporo porządku, no i też jak posłucha się leadershipu Antropica to oni mówią, że jakby to jest też świadome, że oni chcą mieć właśnie taki wpływ na branżę poprzez knowledge sharing, i wydaje mi się, że to działa. W przypadku OpenAI akurat, mogę tutaj mieć lekki bias, no nie widzę takiej aktywności aż tak intensywnej jak w przypadku Antropica, jakby ten blok OpenAI raczej głównie dotyczy jakichś nowości, jakichś takich programów bardziej korporacyjnych. Nie ma na przykład podsumowania architektur agentowych tak jak w Antropiku, więc dla mnie tutaj okejka. No i też tak jak mówiliśmy na początku, Cloud 3.5 Sonnet po prostu nasz ziomal w codziennej pracy z AI.

Marcin:

U mnie również zwycięzcą kategorii jest firma Antropic. Żeby się nie powtarzać, tylko jeszcze rozszerzę o to, że mamy bardzo ciekawą funkcję Artifacts w Cloud AI, która była innowacją, potem kopiowaną za pośrednictwo Canvasa przez OpenAI i zresztą projekty, które można uznać z drugiej strony za kopię custom GPTs, aczkolwiek to takie prostsze i bardziej przejrzyste podejście naprawdę mi odpowiada i w praktyce Dużo wygodniej mi się z tego korzysta niż z Custom GPT i stąd cieszę się, że za sprawą Shipmas taka funkcja też trafiła do czata GPT. I za co również można pochwalić firmę Antropic to myślę, że jest to wyważony marketing i PR. Bardzo takie jest to podejście nastawione na konkrety, na informacje, na wartość, na produkt. Gdzieś tam nie uświadczymy od Dario Amodea, CEO Antropica, takiego shitpostingu jak w przypadku sama Altmana. To pewnie negatywnie się odbija na zarobkach firmy realnie, bo ludzie na taki shitposting chętnie reagują. Naczkolwiek jeśli miałbym wskazywać ten model to wole takie podejście do komunikacji gdzie ktoś przychodzi do Lexa Friedmana i przez 3,5 godziny naprawdę sensownie, bez jakichś pseudotajemniczych, naprawdę bezsensownych wypowiedzi, które głównie mają wywołać dyskusje na Twitterze, a tak w ostreczności do niczego to nie prowadzi. Sam Altman trochę się w tym specjalizuje. To oczywiście super działa, ale w praktyce nie uważam tego za jakieś inspiracje. Bardziej przedsiębiorcy, tacy jak Dario Amo, imponują. Lana Rapa tutaj nie mam więc możemy zamknąć tą kategorię i przejść do najbardziej ryzykownej kategorii można powiedzieć z punktu widzenia tego jak i czym będziecie się liczyli z naszym zdaniem czyli nasz bet na 2025 rok czyli jakieś przerywanie co do trendu co do tego w jakim kierunku branża generatywnej sztucznej inteligencji i szerzej świat będą zmierzali. No więc Przemku, na co ty stawiasz? Co twoim zdaniem będzie takim istotnym trendem zmianą?

Przemek:

Znowu dwie pozycje. Przede wszystkim myślę, że OpenAI będzie w trudnej pozycji, a to z punktu widzenia… Argument jest taki, że Google nabiera po prostu wiatru w żagle. Myślę, że pozycja Google po prostu w ostatnich miesiącach naprawdę poszła w górę. i to na tej płaszczyźnie produktowej i na tej płaszczyźnie researchu, chociaż DeepMind nie musi swojej wartości udowadniać, bo od wielu lat to jest tak naprawdę lider, jeśli chodzi o research, ale w Google brakowało tego podejścia produktowego, jakby odważnego eksperymentowania, shipowania. Widać, że to się zmieniło w ostatnich miesiącach. Też mówiliśmy o Notebook LM. Mamy więcej narzędzi na pikselach, na smartfonach od Google, edycję zdjęć w galerii i tak dalej, i tak dalej. I myślę, że ciekawe miesiące przed nami. OpenAI nie jest najbardziej stabilną firmą jeśli chodzi o leadership i tego już doświadczyliśmy kilkukrotnie w tym ostatnim roku na czele z Ilią Skewerem, który też po prostu gdzieś tam swojego poletka zdecydował się szukać. Wydaje mi się, że będzie po prostu większa rywalizacja. OpenAI też ma proces wytoczony przez Ilona Maska albo proces w kierunku Ilona Maska, teraz nie pamiętam jaka jest kolejność tutaj, Marcin ty mnie pewnie poprawisz, kto kogo tutaj zaczepia. albo w dwie strony.

Marcin:

Chyba teraz w dwie strony, ale zaczęło się od Ilona zaczepiającego.

Przemek:

No tak, bo tam był problem z modelem biznesowym, ze strukturą korporacyjną, więc w ten sposób. I myślę, że po prostu będzie ciekawiej, jak to się przełoży na użytkownika końcowego. Pewnie taniej, pewnie szybciej, większy wybór modeli, większa dostępność tych rozwiązań, pewnie większy incentive do tego, żeby w Europie pojawiały się poszczególne rozwiązania. Myślę, że ta konkurencja będzie po prostu zdrowa. Wiemy, że nie wszystko w Europie się pojawia, więc akurat lepsza pozycja Googla czy Mety to po prostu plus dla nas. I drugi bet. Wydaje mi się, że dyskusja o programowaniu z AI dojrzeje. Dojrzeje już do tego punktu, że nie będziemy rozmawiać o tym, czy na pewno warto z tym AI programować, czy warto tego kursora albo dowolny inny asystent instalować. ale jak to robić skutecznie. Nie ma co ukrywać, że to jest taki bet, gdzie jesteśmy troszkę zbajasowani, bo mocno promujemy tego typu rozwiązania, ale mieliśmy też okazję na kilku konferencjach w tym roku wystąpić. Widzimy, że te emocje się zmieniają, bardziej in plus, coraz więcej osób podchodzi i wskazuje, że korzysta z tych technologii i wydaje mi się, że to będzie fajny rok, gdzie zaczniemy rozmawiać o konkretach, o jakichś praktykach, standardach, dobrych wzorcach. a nie o tym, że to jest darmowe, a za to trzeba płacić, a tu jest to, a tu jest to, a to nie działa, a tu nie jest taki kodzik, jak bym chciał i tak dalej. To są takie problemy wieku dziecięcego. Myślę, że będzie ciekawiej na polu firmowym i po drugie dla programistów również więcej wartości i bardziej dojrzałe dyskusje. Ja bym na to stawiał.

Marcin:

Dokładnie tak. Ja stawiam tak naprawdę dokładnie na to samo. Nie umawialiśmy się, ale też kiedy myślę o nadchodzącym roku, Myślę o wybuchu popularności na programowanie z AI na takim świadomym poziomie. Jak Przemek mówił, jeździmy na konferencje, rozmawiamy z ludźmi i widzimy, że ten sentyment się zmienia, a jednocześnie cały czas jest jeszcze dużo przestrzeni na poziomie edukacji, podnoszenia świadomości. Cały czas nazwa CLOD 3.5 SONNET dla programistów, którzy nie są jakimiś tam stricte zjawkowiczami, generatywnych sztucznej inteligencji, to jest coś nowego, to jest zaskoczenie, że w ogóle coś takiego istnieje, że to jest lepsze od GPT-4, ale jak to? Więc no tutaj jakby widzimy, że jeszcze cały czas jest ogromny potencjał. No moim zdaniem to jest ten gateway drug, żeby do końca tak w pełni uwierzyć, że to wnosi wartość, to trzeba z tego CLODa sobie skorzystać najlepiej w kursorze, bo to wtedy już w ogóle ciężko nie być zachwyconym. Ale widzimy, że coraz więcej osób zdaje się sprawę, coraz więcej osób się interesuje. My też będziemy twardo promowali tego typu rozwiązania i postaramy się, żeby ten bet się spełnił. Myślę, że wiatr czasów i tempu postępu też po prostu jest sprzyjające i najpewniej nie będzie musieli się tłumaczyć z tego założenia.

Przemek:

Dwa słowa na ten temat, jeśli tylko pozwolę, jeśli chodzi o programowanie z AI. Robiąc notatki, sprawdzałem polskie fora programistyczne, m.in. For Programmers, na które czasami wchodzę. Niezależnie od opinii, takie forum pokazuje, czym żyje branża w danym kraju, w danym miejscu na świecie. I naprawdę jestem zaskoczony tym, jak niewiele tam się mówi o sztucznej inteligencji w kontekście programowania. Było naprawdę kilka wątków o Copilote. Te wątki dotyczyły głównie tego, że albo jest darmowy wybór modeli. Ja też tam robiłem te wątki, albo że coś nie działa, albo że coś nie jest w ogóle może takie, jakie powinno być i tak dalej i tak dalej. I teraz nie wiem, czy te dyskusje się odbywają w innych miejscach, może w przestrzeni anglojęzycznej, może na jakichś Discordach, na których nie ma, czy po prostu się nie odbywają, bo jak się nie odbywają, No to myślę, że ciekawy, ciekawy rok przed nami. Ja tutaj naprawdę Marcin myślałem, że przyniosę kilka w ogóle cytatów, jakichś wątków do dyskusji z tego For Programmers. Tam naprawdę to trudno znaleźć, więc zobaczymy jak to będzie i edukacja, edukacja, edukację to chciałem dodać.

Marcin:

Dokładnie tak, tutaj trzeba na pewno pracy już niemało wykonać, ale po to zresztą jesteśmy. Na pewno też cieszy, że GitHub Copilot nadrabia zaległości, no bo to jest rozwiązanie z tymi większość osób ma mastyczność gdzieś tam w pracy. Jeżeli jakaś subskrypcja jest kupiona, no to zwykle właśnie tamten wybór modeli mamy do dyspozycji, ale problem niestety cały czas polega na tym, że wyłącznie Visual Studio Code, bo w pluginie dla Jelbane’ców cały czas tego wyboru modeli nie ma. Dodatkowo AI Assistant od JetBrains jest zauważalnie gorszy od samego Copilot. Tam również tego wyboru modeli nie ma jeszcze dostępnego. Ma być w przyszłości w planie Enterprise. No więc szkoda, że też jest taka dysproporcja, jeżeli chodzi o jakość tych rozszerzenia jaj pomiędzy Visual Studio Code, które ma swoich zwolenników w wybranych technologiach i językach i JetBrains, które tak naprawdę patrząc na programowanie szerzej, wychodząc poza gdzieś tam to nasze poletko web developmentu jest popularniejszym rozwiązaniem wśród programistów, zwłaszcza języków back-endowych czy technisko-poziomowych. Tutaj trzymam kciuki, żeby ta sytuacja w tym ekosystemie się poprawiła, bo to najbardziej wydaje mi się zagraża gdzieś tam pełnej realizacji tego naszego betu na 2025 rok. Jest to jakaś niepotrzebna bariera. No i tyle, skończyliśmy nasz ranking. Jesteśmy też oczywiście ciekawi, co Waszym zdaniem jest godne uwagi. Jeżeli chcecie się podzielić własnymi pikami, no to zachęcamy do komentowania postu promującego ten odcinek na platformie, z której najchętniej korzystacie. Wejdziemy tam z Wami w dyskusję. Tak więc, Sprawdzajcie ten podcast, popychajcie go do przodu, dziejecie się swoimi spostrzeżeniami z tego roku. Jak pokazaliśmy, działo się naprawdę dużo, zresztą wszystko to relacjonowaliśmy Wam z miesiąca na miesiąc. To był naprawdę ciekawy rok i nigdy nie mieliśmy problemu, żeby przygotować scenariusz. Wręcz przeciwnie, zawsze pracując nad scenariuszem odcinka musimy wykonywać dokładną i taką rygorystyczną. selekcje, bo naprawdę dzieje się dużo. Te odcinki już i tak trwają po godzinę i więcej, a i tak odrzucamy naprawdę niemało informacji, na które po prostu nie ma przestrzeni, a i tak są istotne i ciekawe.

Przemek:

Dokładnie tak. Chcielibyśmy jeszcze raz, tak jak na początku wspominałem, podziękować wszystkim tym, którzy obserwowali nasz podcast przez ostatnie 12 miesięcy. Mamy kilka pomysłów na to, jak sprawić, żeby te informacje, które tutaj przekazujemy, były bardziej dostępne. Chcielibyśmy, można powiedzieć, bardziej sprofilować te poszczególne odcinki, które publikujemy na dwie grupy, na dwa różne tematy. Z jednej strony odcinki biznesowe, z drugiej strony odcinki czysto technologiczno-programistyczne, tak żebyście w 2025 roku mogli albo słuchać dwóch, to jest ta opcja najlepsza, albo słuchać tego, który po prostu bardziej pasuje do waszej roli i do waszej specjalizacji, do tego czym zajmujecie się na co dzień. W ubiegłym roku było to troszkę wyzwanie, wiemy, że te tematy czasami się mieszały w odcinkach, czasami było dużo liczb, czasami było dużo wysokopoziomowej teorii, czasami zastanawialiśmy się, co słychać w firmach w Dolinie Krzemowej, których przecież nie obserwujemy na co dzień, więc chcemy poeksperymentować z formatami tak, żeby ta wiedza była po prostu bardziej dostępna i już od kolejnego miesiąca taki nowy format będzie dostępny, więc polecam subskrybować, polecam obserwować ten nasz podcast, bo będzie się działo, a jeśli chodzi o przyszły rok, to również zachęcam do obserwowania całego projektu Opony AI, ta między innymi i kursor programu i nasze warsztaty dla firm, które pozwalają rozmawiać face to face, dyskutować face to face nad tym, czym to generatywna sztuczna inteligencja jest, jak ona może zmienić wasze firmy, jak ona może sprawić, że będziecie pracować lepiej. Na pewno przez to, że mamy modele szybsze, lepsze, tańsze, będzie to jeszcze bardziej istotne. No i na Opony AI macie również newsletter. po zapisie co poniedziałek trzy linki związane ze sztuczną inteligencją ręczna selekcja zero automatów z naszej strony na każde wydanie takiego newslettera patrzymy i przybijamy taką pieczęć jakości tak żebyście właśnie w poniedziałek co poniedziałek byli na bieżąco z branżą sztucznej inteligencji zachęcamy oczywiście do udostępnienia podcastu dziękujemy za cały ten rok zachęcamy do obserwowania naszych projektów bo będzie się działo jeszcze nie możemy wam mówić o naszych pomysłach, ale naprawdę backlog jest pełny, także do zobaczenia, do usłyszenia już wkrótce. No i do następnego.

Marcin:

Wszystkiego dobrego. Na razie.

Newsletter Opanuj AI

Subskrybuj ręcznie selekcjonowane materiały z obszarów AI i rynku nowych technologii, które pomagają dowozić lepsze rezultaty i budować kulturę innowacji

Zapisując się do newslettera akceptujesz naszą politykę prywatności.

W każdy poniedziałek
Otrzymuj podsumowanie najważniejszych informacji z branży AI i nowych technologii. Gwarantujemy zero spamu i tylko wartościowe treści.
Tylko najlepsze materiały
Materiały zamieszczane w newsletterze przechodzą proces selekcji, gdzie wymagamy jakości i możliwej do wykorzystania wiedzy.