Podcast Opanuj.AI
Bądź zawsze na bieżąco
1 lipca 2024
Claude 3.5 Sonnet, nowości Apple i oczekiwanie na GPT-5 | Czerwiec 2024
Słuchaj na twojej ulubionej platformie
Transkrypcja odcinka
Tekst wygenerowany automatycznie - może zawierać drobne błędy i literówki
Przemek
Cześć, witajcie serdecznie. To jest kolejny odcinek podcastu Opanuj.ai. Witają się z wami Przemek Smyrdek i Marcin Czarkowski. Jak co miesiąc mamy dla was całą masę informacji, newsów, wydarzeń ze świata sztucznej inteligencji i nowych technologii. Mamy dla was również nasz niedawno wprowadzony format, czyli newsy z branży i tematy odcinka, których w tym przypadku jest trójka. Zanim zaczniemy, standardowe zaproszenia, standardowe rekomendacje do wspierania naszego community. Po pierwsze zachęcamy do udostępnienia tego podcastu i podawania go dalej. Jak dobrze wiecie, współczesne platformy streamingowe dają wam możliwość oceniania każdego odcinka. Jeśli ocenicie nasz odcinek na 5 gwiazdek, czyli dacie mu maksymalną ocenę, to będzie to sygnał w kierunku algorytmów, że warto te nasze treści podawać dalej. Dlatego prosimy o podawanie dalej, prosimy o ocenianie i rekomendowanie naszego podcastu. Niedawno mieliśmy całkiem wysoką pozycję na Apple Podcasts w kategorii nowych technologii. Mamy nadzieję, że kolejnym krokiem jest przebicie się na podium i być może kiedyś rywalizacja z Lexem Friedmanem o miejsce najpopularniejszego podcastu technologicznego wśród słuchaczy z Polski. Więc zachęcamy, zachęcamy też do subskrypcji naszego newslettera na stronie opanuj.ai. Co poniedziałek publikujemy dla Was trzy linki, które ręcznie selekcjonujemy, absolutnie unikamy spamu. I chcemy wam przekazywać w każdym tygodniu właśnie te kluczowe informacje z poprzedniego tygodnia ze świata sztucznej inteligencji. Są to materiały dla programistów, ale też dla osób, które po prostu interesują się nowymi technologiami, biznesem, które chcą trzymać rękę na pulsie i wiedzieć, co w tym szalonym świecie sztucznej inteligencji się dzieje. Na stronie opanuj.ai nasz newsletter, tam również blog, wszystkie treści, które publikujemy poza tym podcastem. No i zachęcamy do tego, żeby angażować się w to nasze community. Ten odcinek jest już odcinkiem numer 15, więc sami nie wiemy kiedy to zleciało. Przez cały ten czas zbierała się wokół tego naszego podcastu tej inicjatywy coraz większa rzesza osób, za co dziękujemy. No i mamy nadzieję, że ten trend będzie po prostu dalej kontynuowany w tym samym kierunku. No a my już teraz możemy przejść do agendy tego odcinka. Zacznijmy od newsów z branży. Chcemy wam dać takie wysokopoziomowe podsumowanie tego, co w tym ostatnim miesiącu się wydarzyło, ale nie jest być może na tyle istotne, żeby tutaj być głównym aktorem w tym naszym materiale. A potem przejdziemy do trzech głównych tematów tego dzisiejszego nagrania. Porozmawiamy o tym, co pojawiło się na rynku ze stajni Antropica. Porozmawiamy o nowym modelu Cloud 3.5 Sonnet, a także o jego rozszerzeniach, o tym jak wygląda rywalizacja pomiędzy Antropikiem i OpenAI. Porozmawiamy również o tym, co na rynek wystawia Apple, przede wszystkim w kontekście konferencji WWDC. Tam sztuczna inteligencja również grała główną rolę. Mamy Apple Intelligence, bardzo sprytną grę słów, która pokazuje, że Apple również tutaj Trzyma rękę na pulsie tych nowych technologii. No i okazuje się, że odnalazł się Ilja Suskever i porozmawiamy o tym, co ten Ilja Suskever planuje w najbliższym czasie robić. Ale zanim zaczniemy, tutaj oddaję głos Marcinowi. Marcin przedstawi wam taki zbiór najważniejszych wydarzeń z tego ostatniego miesiąca.
Marcin
Zacznijmy od rekordowej wyceny firmy Nvidia, która przez kilka dni w czerwcu była najwyżej wycenianą firmą na całym świecie. Obecnie jest na miejscu trzecim w top 3 firm, które mogą się pochwalić wyceną powyżej 3 bilionów dolarów. Wyżej jest tylko Apple i Microsoft. No więc widać, że ten szał na sztuczną inteligencję zdecydowanie pozytywnie wpływa na notowania. Nvidia, która oczywiście obecnie dostarcza tej ropy, tego złota, którego wszyscy potrzebują, czyli chipów wyspecjalizowanych pod sztuczną inteligencję. Właśnie firma zaczęła ten swój wzrost w 2020 roku na fali kryptowalut, no i potem bardzo płynnie przeszła na kolejną falę zainteresowania tym razem sztuczną inteligencją. Zobaczymy, czy ten Ten dobry front utrzyma się w przypadku NVIDII, której konkurencja cały czas rośnie. Mamy firmy takie jak GROK i oczywiście kolejne startupy będą na pewno powstawały chcąc zjeść kawałek tortu, który obecnie NVIDIA konsumuje niemalże sama. Przejdźmy dalej, tutaj bardziej taka humorystyczna wstawka. Mianowicie McDonald’s w roku 2019 wprowadził testy sztucznej inteligencji, jeżeli chodzi o przetwarzanie zamówień w restauracjach drive-thru. No i z tego systemu zrezygnował. Po fali wpadek, jaki ten system miał, mianowicie dodawania setek nuggetsów do rachunków, dodawania bekonu do lodów. takie materiały zaczęły pojawiać się na TikToku, no i z tego powodu McDonald’s postanowił zrezygnować z systemu, który opracowała dla niego firma IBM, ale jest tutaj jasny sygnał, że McDonald’s na sztuczną inteligencję się nie obraża i będą chcieli nadal iterować nad tego typu rozwiązaniami w przyszłości. Teraz rekomendacja od nas, czyli Opus Clip. rozwiązanie SASS, które pozwala przetwarzać wszelki rodzaj materiały, zwłaszcza podcasty, na krótsze formy rolki, dzięki czemu możemy ponownie korzystać z kontentu, który produkujemy dla naszych widzów w innych formatach, no zwłaszcza na Instagramie, TikToku czy YouTube Shorts. Rozwiązanie działa naprawdę fajnie. świetnie wyczuwa, który w ogóle fragment warto wybrać do takiego, do takiej rolki. Kto mówi jak ustawić proporcję kamerę, to oczywiście nie jest żadna reklama, nikt z opusa się do nas nie odzywał, sami postanowiliśmy zarekomendować to rozwiązanie, bo jesteśmy z niego najzwyczajniej w świecie zadowoleni, więc jeżeli tworzycie treści, no to jest to fajna, fajny sposób, aby te treści reużywać i podawać dalej również na innych platformach. Następnie rekordowe finansowanie w Polsce dla startupu Campus AI, jest to 10 milionów dolarów w rundzie Presid, no więc naprawdę świetny wynik. I tutaj za tą inwestycją stoi anioł inwestor Maciej Ziętara, który postanowił wesprzeć budowę wirtualnego kampusu do szkolenia sztucznej inteligencji. Naprawdę niesamowity wynik. Trzymamy kciuki za ten startup, no bo brzmi to wszystko bardzo ciekawie, jak to będzie wyglądało w praktyce. Zobaczymy, zdecydowanie bardziej gdzieś tam obecnie widać, że to jest wizja, wizja szkolenia ludzi ze sztucznej inteligencji w Metabersie. Tak więc ambitne plany, startup z tego co mówi CEO firmy, obecnie zatrudnia 30 osób i te nowe fundusze przeznaczy na dalszy rozwój platformy i na ekspansję na rynki anglo i hiszpańskojęzyczne. Tak więc zdecydowanie fajnie, że w Polsce takie pieniądze są na rozwój startupu i że ludzie realizują ambitne projekty. Jak to wyjdzie w praktyce czas pokaże. I na końcu Luma AI, czyli obecnie chyba najlepszy system sztucznej inteligencji do generowania wideo na podstawie tekstu bądź też obrazu. Ten system zrobił wielką furorę na Twitterze, na social media, wprawiając w ruch najpopularniejsze memy. Bardzo fajnie to wszystko wyglądało. Wiele, wiele gdzieś tam reakcji i zabawnych treści powstało na tej podstawie. Tak więc możecie sobie to rozwiązanie sami przetestować. Luma Labs.ai Dream Machine. Dream Machine tak się nazywa ta usługa. Jest ona dostępna w modelu freemium, więc bez problemu każdy z Was może zobaczyć jak to działa. Tam jest kilka generacji w miesiącu za darmo. Tak więc możecie wrzucać dowolne obrazy, dowolne prompty i zobaczyć co Luma dla Was stworzy. Jeżeli chodzi o jakość tych rozwiązań to oczywiście to nie jest poziom SORY, ale jest to zdecydowanie wyższy poziom niż to do czego przyzwyczaiły nas inne ogólnoroztępne usługi. Tak więc zachęcam do sprawdzenia. No i tyle jeżeli chodzi o newsy z branży, a teraz przechodzimy do największego hitu czerwca. Tu chyba nie ma większych wątpliwości, czyli nowości od Antropica z modelem Cloud 3 Sonnet na czele. Przemku oddaję Ci tutaj głos, bo wiem, że wiele już stosunkowo czasu z tym modelem spędziłeś, tworząc materiał dla nasz kanał na YouTubie. Tak więc opowiedz, co ten model ma do zaoferowania i jak wypada na tle konkurencji.
Przemek
Zastanawiałem się jak właściwie rozpocząć tę część o Antropiq i o Cloud 3.5 Sonnet i przyszło mi do głowy takie stwierdzenie z angielskiego New Kid on the Block. Tylko sobie myślę, że ten New Kid on the Block bardzo zależy od rynku, o którym mówimy, bo w Stanach Zjednoczonych ani Antropiq nie jest tym nowym dzieckiem, ani Cloud nie jest nowym dzieckiem. To jest firma, która tam była dobrze znana. To jest firma, która wprost wywodzi się z OpenAI, tutaj tylko dla przypomnienia Antropiqa. założyli pracownicy OpenAI, którzy po prostu postanowili pod koniec 2021 roku pójść w swoją stronę. Było siedmiu wspaniałych, którzy po prostu postanowili się odłączyć. Gdzieś tam w Stanach Zjednoczonych, w tym community skupionym wokół sztucznej inteligencji, Antropica każdy znał, przynajmniej z mojej perspektywy. Nie wiem, czy ty się zgodzisz. W Polsce to była cały czas taka firma ciekawostka, przynajmniej do maja, bo te produkty po prostu nie były dostępne. Po pewnym czasie pojawił się dostęp do API. Tam ten dostęp do API był również ograniczony do zastosowań niekomercyjnych. Nie mogliśmy tego Antropica i tych modeli integrować. z naszymi produktami i stopniowo to się zaczęło zmieniać. Najpierw uzyskaliśmy właśnie aktualizację polityk prywatności, więc automatycznie Cloud mógł zasilać produkty również na terenie Unii Europejskiej, no a w zeszłym miesiącu mieliśmy największą prawdopodobnie z naszej perspektywy aktualizację, czyli po prostu otwarty dostęp do Cloud AI i do tych usług dla użytkownika końcowego, który Entropiq wypuszcza. No a czerwiec, tak jak Marcin wspomniał, to jest czas, kiedy pojawiła się nowa gwiazda, czyli model Cloud 3.5 Sonnet, który naprawdę sporo namieszał. Jak się czyta polskie media społecznościowe, ogląda się demka, ogląda się blogi, kanały i tak dalej i tak dalej, no to widać, że z tego Clouda zaczynamy korzystać na masową skalę. No i tak naprawdę pytanie dlaczego? W poprzednim odcinku, jeśli mnie pamięć nie myli, wspominaliśmy, że właśnie na rynku pojawiła się ta rodzina modeli Cloud 3. Mówiliśmy o trzech modelach Cloud Haiku, Cloud Sonnet i Cloud Opus, czyli modelach o różnym poziomie w cudzysłowie inteligencji, ale też różnym progu związanym z kosztami czy z szybkością działania. W czerwcu Antropic wypuścił na rynek nowy model Cloud 3.5 Sonnet, który, jak ja to nazwałem na YouTubie, ma być szybki, tani i do tego dobry, czyli taki magiczny trójkąt ma być tutaj spełniony. Zazwyczaj dwa z tych punktów są spełnione. Antropik mówi, że tutaj te trzy punkty będą spełnione. Dlaczego? A no dlatego, że Sonnet ma być bardziej inteligentny niż poprzedni najbardziej, powiedzmy tutaj Najbardziej biegły model, czyli Cloud 3 Opus ma być bardziej inteligentny, ma mieć większy potencjał, przy tym ma działać szybciej i ma być tańszy. Czyli tak naprawdę mamy odhaczone wszystkie punkty, które pojawiają się gdzieś tam w głowie na poziomie marzeń każdego, kto ze sztuczną inteligencją pracuje. Mamy w pewnym sensie wyznaczenie nowych standardów branżowych w zakresie rozumowania, w zakresie poszczególnych benchmarków. Chociażby w takim benchmarku jak MMLU, czyli Undergraduate Level Knowledge, mamy tutaj wyrównanie poziomu GPT 4.0, co dla modelu, który jest mniejszy, przynajmniej według wszelkiego rodzaju tutaj plotek czy informacji, które pojawiają się w internecie jest mniejszy, jest dość zaskakującym wynikiem, ale co ciekawe w wielu innych benchmarkach mamy lepsze wyniki niż GPT-4.0, czyli ten absolutny lider z firmy OpenAI. W Human Eval mamy lepszy wynik, w Great School Math mamy lepszy wynik, w kodowaniu w znanym benchmarku Human Eval mamy lepszy wynik. Nie są to radykalnie lepsze wyniki, natomiast ta różnica kilku punktów procentowych pokazuje, że cały czas z tych modeli językowych można coś wycisnąć przy stosunkowo niskich albo niższych kosztach. O tym też zaraz powiemy. No właśnie, jak wygląda sama ta perspektywa użytkownika końcowego? Cloud 3.5 SONNET działa z dwukrotnie większą prędkością niż Cloud 3 Opus i przy tym ma większy potencjał. Jest to zaskakujące, no bo do tej pory Cloud 3 Opus był tym, który miał rywalizować z GPT-4. Tutaj okazuje się, że dostajemy model mniejszy albo właściwie ten model środkowy ze środkowego segmentu z tej rodziny, którą rozwija Antropic, a przy tym jest lepszy. Mamy bardziej opłacalną cenę i okazuje się, że mamy taki model, który pasuje do wielu zastosowań. kontekstową obsługę klienta, mamy jakąś orkiestrację wieloetapowych przepływów pracy, mamy rozumienie kontekstów, rozumienie takich zniuansowanych konwersacji itd. Czyli nie mówimy już tak jak wcześniej, nie mamy tego prostego podziału małe, tanie modele do prostych zadań albo duże modele, drogie do zaawansowanych zadań, tylko mamy taki sweet spot, czyli coś co ma się opłacać, ale też może być wykorzystywane w wielu w wielu kontekstach, które wcześniej po prostu nie mogły być realizowane. Co jest zaskakujące, więc mamy sporo zamieszania. Antropic nagle pojawia się tutaj na polskim rynku, ogólnie na rynku globalnym jako firma, która również będzie się bić o te palmy pierwszeństwa w takim konsumenckim AI. No i właśnie z tego powodu o Cloud 3.5 Sonnet mogliście w czerwcu przeczytać w wielu miejscach, mogliście zobaczyć nasz film na YouTubie i też będziemy zachęcać do jego testowania, bo jest to naprawdę ciekawy produkt, jeszcze zaraz powiemy dlaczego konkretnie. Kilka takich informacji technicznych, mamy okno kontekstowe 200 tysięcy tokenów, W porównaniu do GPT-4 OU jest to o, jeśli dobrze liczę, 60 albo 72 tysięcy tokenów więcej. GPT-4 OU to jest 128 tysięcy tokenów. No i mamy cenę na wejściu 3 dolary za każdy milion tokenów wejściowych i 15 dolarów za każdy milion tokenów wyjściowych, więc 3 i 15. GPT-4 OU to jest 5 i 15, czyli ta sama cena na wyjściu, natomiast na wejściu Cloud Triple Summit jest tańszy, więc to znowu pokazuje, że jest to po prostu model, którym warto się zainteresować. Mamy tę opłacalność, no i warto go testować. No i co ciekawe, już teraz jest on dostępny w usłudze Cloud AI. Nawet w darmowym planie mamy dostęp do tego najmocniejszego na dzisiaj modelu z podstajni Antropica. GPT 4.0 myślę był takim precedencem, który również wiele osób zaskoczył, bo okazało się, że te najlepsze modele mogą być też dostępne w darmowym planie. no tutaj widać, że Antropic idzie bardzo podobną drogą, no i podobnie jak wcześniej, podobnie jak w przypadku OpenAI, o tym też mówiliśmy w poprzednim odcinku, różnicą jest właśnie ta liczba zapytań, które możemy wymieniać z modelem w porównaniu do planów płatnych, to znaczy mamy pewną ograniczoną liczbę zapytań, które możemy wymienić na planie darmowym, Jest to cały czas ten sam model, natomiast na planie płatnym mamy znacznie wyższe limity stawek, no i mamy więcej swobody w korzystaniu z tego modelu. Przyznam szczerze, że jak nagrywałem jeszcze właśnie film na naszego YouTuba, to udało mi się stosunkowo szybko wysycić ten plan darmowy. Nawet na filmie mówię o tym, że sam jestem ciekaw, czy do końca nagrania uda mi się go wysycić, po czym w następnej wiadomości pojawia się wiadomość, że słuchaj, jakby idź sobie zrób herbatę czy kawę, bo nie pogadacie po prostu, musisz sobie poczekać, zanim te limity się odblokują. W trakcie tego samego nagrania przeszedłem na plan płatny, przeszedłem na plan pro, no i tych limitów już limitów już nie widać. Poza tym mamy też dostęp do tego modelu w wielu innych kanałach. Programiści na pewno będą zainteresowani dostępem poprzez API. Mamy Antropic API, które już również na poziomie Unii Europejskiej jest możliwe do wykorzystywania w kontekście komercyjnym. Mamy Amazon Bedrock, czyli usługę na AWS, gdzie również z tego modelu możemy korzystać i Google Cloud Vertex AI, czyli platformę od Google, gdzie z tymi modelami również możemy eksperymentować. Więc podsumowując mamy bardzo ciekawy model o dużym potencjale, który działa szybko, który jest tańszy niż te największe do tej pory modele. Dodatkowo jest on dostępny w Polsce, jest on dostępny w usłudze Cloud AI, jest on również dostępny w aplikacji mobilnej, bo Antropic również w Polsce taką aplikację mobilną udostępnia. No i co ciekawe, ma jeszcze rozszerzenia, o których pewnie powie Marcin, których jak na razie nie znajdziemy w konkurencyjnych rozwiązaniach.
Marcin
Jeżeli chodzi o same możliwości, no to one są bardzo zbliżone do GPT-4O i pewnie w takich blind testach, co zresztą widać na leaderboardzie. LMSYS, widać, że to są bardzo podobne modele, to ELO to jest kilka punktów różnicy, ale z czymś unikalnym, co wprowadził Antropik jako pierwszy, są artefakty, czyli możliwość podglądu w czasie rzeczywistym tego nad czym pracuje właśnie model, z którym konwersujemy i tutaj mamy oczywiście na myśli wszelkiego rodzaju programowanie, tworzenie stron, również tworzenie dokumentów, dzięki czemu jesteśmy w stanie dużo lepiej analizować i oceniać jakość i kierunek pracy modelu, co oczywiście przyspiesza naszą pracę nad realizacją zadania, nie musimy pobierać zipów. Tu Przemek fajnie określił, że to, do czego przyczaiło nas OpenAI, już się wydaje mega archaiczne, czyli pobieranie zipów, uruchamianie lokalnie, sprawdzanie lokalnie dokumentów, to już, jeżeli chodzi o korzystanie z CloudAI, odchodzi do lamusa, no bo widzimy w czasie rzeczywistym w okienku, zaraz obok konwersacji, to, co się dzieje i to, nad czym model pracuje. No jest to niesamowite doświadczenie, znacznie lepszy user experience. No i nie zdziwię się, jeżeli w przeciągu kilku tygodni, no maksymalnie miesięcy, bardzo podobne rozwiązanie pojawi się właśnie w czacie GPT. No zresztą za to trzymam kciuki, no bo to jest po prostu genialne. Tak to powinno działać, tak to powinno. wyglądać, więc tutaj ogromne oklaski dla Antropica za wprowadzenie takiej funkcji, no która miejmy nadzieję już niedługo będzie standardem, bo jak zauważyła firma, no to pozwala znacznie efektywniej kolaborować nad różnymi rozwiązaniami i właśnie zresztą do kolaboracji zaraz przejdziemy, no bo Antropic nie tylko skupił się na funkcjach związanych z Cloud 3 Sonnet, ale również z kolaboracją gdzie również jest dużo fajnych, ciekawych rozwiązań, dzięki czemu jako zespoły, również gdzieś tam tak skromne jak mój i Przemka dwuosobowe, ale również większe, są w stanie współpracować w sposób efektywny właśnie dzięki funkcjom takim jak projekty, tak to jest nazwane, jeżeli chodzi o Antropica. Jest to odpowiednik workspaców i custom GPTs, które znamy z OpenAI, W Antropiq decydując się na plan team możemy tworzyć takie projekty i w ramach projektu możemy współdzielić konwersacje, tworzyć customowe instrukcje, czyli niestandardowe instrukcje, które w odpowiedni sposób nastawiają model do określonych zadań. Jeżeli mamy jakieś preferencje co do tworzenia materiałów marketingowych, to właśnie za pomocą tych niestandardowych instrukcji możemy wskazać te nasze oczekiwania do modelu, tak aby ich nie powtarzać w każdym prompcie. To w OpenAI już było za właśnie pośrednictwem Custom GPTs dostępne od kilku dobrych miesięcy. No i tutaj Antropic nadrabia zaległości i również taką funkcję dla nas udostępnia. Realnie teraz jeżeli chodzi o te funkcje do kolaboracji, to mamy feature parity pomiędzy OpenAI i Antropiciem. Jedyną istotną różnicą jest to, No, że Antropic nie ma swojego modelu tekstu image w przeciwieństwie do OpenAI, gdzie mamy to DALI-3. No i zupełnie szczerze, w naszych zakulisowych rozmowach to jest jedyne, co nas obecnie trzyma przy OpenAI, przy 3GPT, jeżeli chodzi o ten plan team. No, bo chętnie byśmy przeskoczyli na ten plan teamowy i zobaczyli, jak nam się właśnie pracuje na rozwiązaniach Antropica. No, ale generowanie obrazów jest również dla nas Istotne, jeszcze wracając do tych artefaktów, bo o tym zapomniałem. Jeżeli chcecie sobie to przetestować, to oczywiście jest to dostępne dla każdego, również do użytkowników darmowych, ale musicie sobie tą funkcję aktywować, bo ona obecnie jest w trybie feature preview. Trzeba po prostu wejść za pomocą menu kontekstowego dostępnego pod waszymi inicjałami. Wchodzicie, wybieracie ustawienia i tam w Feature Preview musicie aktywować Artifacts i dzięki temu w kolejnych konwersacjach już będziecie mieli ten podgląd po prawej w okienku co ten model dla Was tworzy. Tak więc zachęcam do testowania. No i oczywiście jeżeli jesteście zespołem no to jak najbardziej Cloud AI jest Wam w stanie zaoferować wiele rozwiązań pozwalających na efektywną współpracę. My pewnie z Przemkiem i tak się zdecydujemy na testy tego rozwiązania i w kolejnych odcinkach damy znać czy faktycznie to jest konkurencyjna alternatywa dla OpenAI i Chata GPT. Jeżeli chodzi o dalsze plany Anthropica na ten rok, no to mówią, że pojawią się kolejne modele z rodziny Cloud 3.5, czyli Haiku i Opus. Haiku, no jeszcze tańszy, jeszcze szybszy. Jestem ciekawy, jak to w ogóle będzie wyglądało. Czy da się po prostu taniej i szybciej? No oczywiście, że się da, ale no nie mogę się doczekać. No i ten Cloud 3 Opus, który w przypadku tego poprzedniej generacji, czyli Cloud 3 trochę mnie zawiódł, bo jest naprawdę wolny i naprawdę drogi. Mam nadzieję, że tutaj po prostu ta cena będzie niższa, no i wydajność będzie na tyle wysoka, że ten model po prostu nie będzie się aż tyle czekał na tą odpowiedź, bo to jest na tyle wolne, Już jesteśmy odzwyczajeni od takiego czasu oczekiwania, więc tutaj trzymam kciuki, żeby ta wydajność była lepsza. Tym niemniej Sonnet, który był moim ulubionym modelem z rodziny Cloud 3 w wydaniu 3.5 sprawuje się naprawdę świetnie i fajnie mieć do dyspozycji. Takie rozwiązanie na rynku. Anthropik szykuje również odpowiednik zapamiętywania rozmów. To już w czacie GPT jest rolloutowane w ramach beta. Niektórzy mają do tego dostęp, niektórzy nie. Tym niemniej już firmy przygotowują się na to, aby korzystać z kontekstu poprzednich konwersacji w kolejnych rozmowach, tak aby lepiej dostosowywać się do naszych potrzeb, personalizować to rozwiązanie do każdego użytkownika. To oczywiście rodzi wszelki rodzaj wątpliwości natury prywatności, więc no pewnie są ludzie, którzy nie będą kompletnie zainteresowani tego typu funkcjami, ale Antropic również nad czymś takim Mam nadzieję, że to będzie opt-in, tak aby osoby, które tego nie życzą mogły z tego zrezygnować. Ja będę w stanie gdzieś tam, jako że znamy te najlepsze praktyki dotyczące bezpieczeństwa, często też o nich wspominamy na warsztatach, No to nie mam tutaj większych obaw, a z chęcią bym zobaczył, jak ten model może być jeszcze bardziej dostosowany do tego, jak z niego korzystamy na co dzień. No i raz jeszcze zapraszamy do materiału Przemka. Przemek wykonał fajne porównanie właśnie Cloud 3 i pół Sonnet z GPD 4.0. Możecie zobaczyć, jak te modele sobie radzą z różnymi zadaniami. jak wypadają na swoim tle. Jeżeli chodzi tutaj o Spoiler Alert, rywalizacja była naprawdę zażarta, więc warto zobaczyć w których zadaniach, w których typach wyzwań lepiej radzi sobie jeden model, a w którym drugi. Tak więc naprawdę fajny materiał, który się spotkał z ciepłym odbiorem. Zachęcam do sprawdzenia na kanale Przeprogramowani. No i teraz Przemku przejdźmy do Apur. To jest temat, który wiem, że bardzo ciebie zainteresował.
Przemek
To ja jestem w kościele z naszej dwójki.
Marcin
Tak, tak. Znaczy ja też oczywiście jestem fanem rozwiązań Apple’a, ale aż takim wyznawcą nie jestem. Przemek dosłownie, nie wiem jak to wyglądało w rzeczywistości z mojego punktu widzenia, siedział po prostu z notatnikiem i notował co tam na tej konferencji się dzieje. No i bardzo szybko było kliknięte publish na blogu, na blogu opanuj.ai. więc widzieliśmy gdzieś tam sprawozdanie niemalże w czasie rzeczywistym z tego, co na konferencji się dzieje. Tak więc Przemku opowiadaj, co tam się wydarzyło, na co warto zwrócić uwagę.
Przemek
Znasz ten mój ostatnio ulubiony mem, it ain’t much but just honest work. To było coś w tym samym stylu. No ale co, prawda jest taka, że wiele osób czekało na to, co tak naprawdę Apple ogłosi, bo to był taki ostatni gigant gdzieś tam ze Stanów Zjednoczonych, który tak naprawdę stosunkowo nic nie ogłaszał przez dłuższy czas. Mieliśmy projekty open source, mieliśmy bardzo techniczne inicjatywy, które pojawiały się na GitHubie. Pamiętam, że ty też miałeś segment w naszym podcaście, gdzie mówiłeś o tych projektach. Natomiast wydaje mi się, że z punktu widzenia i inwestorów i takiego Janka Kowalskiego, Apple było bardzo wstrzemięźliwe, jeśli chodzi o to, jak ta sztuczna inteligencja, generatywna sztuczna inteligencja przede wszystkim będzie działać. To też taka dygresja, oni bardzo mocno zaznaczali, że właśnie AI w Apple było od dawna, natomiast generatywna sztuczna inteligencja to jest faktycznie nowość, więc z ich perspektywy to nie jest tak. Oni bardzo mocno zaznaczali, że nie przespali AI, pytanie czy to był sygnał, czy tak w rzeczywistości jest, ale oczywiście algorytmy były, chociażby nie wiem, w Apple Watchu rozpoznawanie snu i tak dalej, tam na pewno jakiś rodzaj modeli musi działać w ten czy inny sposób. W każdym razie tutaj chodziło o generatywną sztuczną inteligencję, no i Apple w trakcie właśnie konferencji WWDC, Developer Conference w tym roku, w czerwcu ogłosił, że będziemy mieć Apple Intelligence. Już na samym początku na poziomie materiałów marketingowych to było takie mrugnięcie okien, no bo Apple musiało zaznaczyć, The Apple Way można powiedzieć. No i AI w przypadku Apple to będzie Apple Intelligence. I co to jest to Apple Intelligence? No to jest tak naprawdę cały taki zestaw usprawnień, który w kolejnych miesiącach będzie rolloutowany. na wszystkie nowe systemy operacyjne z podznaku Apple i co ciekawe na niektóre urządzenia, nie na wszystkie urządzenia, o tym też za chwilę powiemy. Na co myślę, że taka opinia publiczna czekała? No przede wszystkim na nowe Siri. Siri w obecnej formie jest bezużyteczne. Jeśli jesteście tutaj właśnie Polakami, mieszkacie w Unii Europejskiej, to ono jest podwójnie bezużyteczne. No i teraz dostajemy nowe Siri, Siri, które ma być oparte o modele językowe, Siri, które ma być bardziej sprawcze, które ma być w stanie wykonywać złożone operacje i przede wszystkim Siri, które ma jeszcze lepiej rozumieć kontekst osobisty. Jakby wizja Apple, jeśli chodzi o tą generatywną sztuczną inteligencję, jest takie, że wszystko to, co dotyczy użytkownika, wszystko to, co dotyczy twojego konta na iCloud, tym będzie się zajmował Apple. Natomiast wszystko, co dotyczy tak zwanego modelu świata, world modelu, oni będą to delegować do innych firm. dwa rodzaje modeli, mamy mieć mniejsze modele działające na urządzeniu, takie modele lokalne i mamy mieć Private Compute Cloud, czyli taką prywatną chmurę Apple’a, gdzie będą te większe modele, modele o większym potencjale i do nich będzie delegowana część zadań. I tutaj mówimy wyłącznie o infrastrukturze Apple’a, zarówno te modele lokalne i te modele chmurowe będą właśnie napędzać te nowe Siri, które ma być w stanie robić ciekawsze akcje, bardziej zaawansowane akcje. ma być też multimodalne, ono ma reagować na to, co widzi na ekranie, ma być w stanie czytać zawartość aplikacji, co też jest bardzo ciekawe pod kątem prywatności, ale to wszystko właśnie zostało przedstawione jako taka obietnica. Mamy też trzecią historię, trzecią część tej całej układanki, Poza tymi dwoma dwoma modelami, czyli modelami lokalnymi i modelami na Private Compute Cloud mamy integrację z modelami zewnętrznymi i tutaj gwiazdą jest OpenAI, oczywiście chat, GPT i sam Altman, którzy w kontekście WWDC pojawiały się bardzo często były plotki o tym, że właśnie jest jakiś duży deal na stole, Apple szuka partnera do tych bardziej złożonych zadań, do tych rozwiązań, które wymagają właśnie tego kontekstu świata, wiedzy o świecie i tak dalej i tak dalej. No i tutaj okazało się, że wybór padł na firmę OpenAI. Sam fakt, że Apple ucieka się do takiej integracji z firmami zewnętrznymi dla wielu jest sygnałem, że jednak były tyły na poziomie organizacji, że jednak Apple przespała troszkę te integracje, przespała troszkę te modele językowe, przespała inwestycje w infrastrukturę. No i teraz po prostu musi się ratować zapytaniami do jakiegoś zewnętrznego systemu. Jak to ma działać w przypadku tej integracji? Ano ma to działać tak, że wydajemy jakieś polecenie do Siri i Siri ma ocenić, czy po prostu poradzi sobie z tym zadaniem, czy musi wydelegować to zadanie na zewnątrz. Jeśli z tym zadaniem sobie poradzi, to odpowiada ci model lokalny, natomiast jeśli z tym zadaniem sobie nie poradzi, bo np. pytanie dotyczy wiedzy o świecie, dotyczy jakichś bieżących wydarzeń, to na Twoim na przykład iPhone pojawi się pop-up i tam będzie pytanie czy chcesz pogadać o danej sprawie z czatem GPT. Jeśli naciśniesz OK to zapytanie wychodzi poza serwery Apple’a i tutaj już OpenAI przejmuje całą pracę, generuje dla Ciebie odpowiedź z modeli za którymi stoją, takimi jak GPT 4.0, no i ta odpowiedź do Ciebie wraca. Więc myślę, że dla wielu to jest duże zaskoczenie, że Apple na coś takiego się zdecydowała. Wygląda to jeszcze stosunkowo surowo, no bo pojawia się po prostu pop-up pod tytułem, czy chcesz pogadać z chatem GPT o tej konkretnej sprawie, bo my nie jesteśmy w stanie ci pomóc, ale jeśli już się zdecydujesz, no to to zadanie jest realizowane. I to jest też taka odpowiedź na te obawy związane z prywatnością. Oglądałem jeden z wywiadów właśnie z Timem Cookiem, który został zapytany o to, jak to, jak to jest, że Apple przez tyle lat właśnie promowała siebie jako firmy, która stawia na prywatność, a tutaj integruje się z jakąś zewnętrzną firmą. No i Tim Cook odpowiedział, że chodzi o pop-up tak naprawdę. Jeśli użytkownik wyrazi zgodę, to oni w pewnym sensie wykonują taki gest umywania rąk i mówią słuchaj, jakby to jest tutaj twoja decyzja. Chcesz to sobie rozmawiać z tymi, z tymi innymi firmami, z tymi innymi modelami. Z naszej strony zrobiliśmy wszystko, żeby ci powiedzieć, że decydujesz się na coś, za co my po prostu nie nie odpowiadamy, więc tak to wygląda z perspektywy Apple. Więc będziemy mieć tą integrację. Tutaj co ciekawe, chat GPT i OpenAI nie mają być jedynymi i firmami i rozwiązaniami, które w przyszłości mają być integrowane z tymi systemami Apple. Craig Federici, czyli head of software w Apple powiedział, że wyobraża sobie, że na przykład rozwiązania Google pojawią się w przyszłości na pokładzie. Będzie można sobie gdzieś z poziomu settings, z poziomu ustawień wybrać to. jaki model ma dostarczać właśnie tę wiedzę o świecie i dla tych z was, którzy będą chcieli właśnie korzystać z rozwiązań Google albo Antropica albo z jakiejś innej firmy, taka opcja będzie możliwa. Ja sam zastanawiałem się, czy na przykład Apple weźmie jeszcze na siebie płatne subskrypcje, natomiast tutaj okazuje się, że musimy już swoim kontem się zalogować. Jeśli chcemy korzystać na przykład z czata GPT Plus albo prawdopodobnie z Antropica, z Clouda Pro albo z innych rozwiązań, no to będziemy musieli się zalogować własnymi kontami i wtedy na poziomie systemu operacyjnego będziemy mieć taką pełną integrację. Co ciekawe, według plotek i pogłosek, formą rozliczeń nie jest tutaj cash, nie jest tutaj gotówka. Apple rzekomo płaci OpenAI samą dystrybucją i faktem, że ich rozwiązania po prostu będą docierać do miliardów użytkowników na całym świecie, bo o takiej skali mówimy. No i mamy też całą masę innych zastosowań, które w skład tego Apple Intelligence wchodzą, więc Mamy chociażby rozwiązania związane z przetwarzaniem tekstu, mamy podsumowanie tekstu, skracanie tekstu, zmienianie jego poziomu formalności, czyli to do czego przyzwyczaiło nas manualne ręczne promptowanie modeli językowych. Mamy też rozwiązanie dla osób, które właśnie interesują się bardziej grafiką, ilustracjami. Mamy tutaj produkt o nazwie Image Playground. to ma być można powiedzieć takie mid-journey produkowane przez Apple i rozszerzenia w istniejących aplikacjach i też dedykowana aplikacja gdzie będziemy mogli promptować w pewien szczególny sposób to rozwiązanie oczekując konkretnej ilustracji Co ciekawe jest to też przynajmniej dla mnie taki mocny sygnał, że ten klasyczny Prompt Engineering powoli będzie odchodził do lamusa, bo w Image Playground Prompty to będą po prostu obrazki albo kategorie, które mamy sobie wyklikać, więc nie będziemy pisać takiej ściany tekstu pod tytułem teraz wyobraź sobie ujęcie z pełnej klatki Canona 8K, tylko tak jak to zostało zaprezentowane, klikasz sobie w ikonkę pieska, potem klikasz sobie w ikonkę lata albo słoneczka, a potem sobie klikasz w obrazek domku. Apple to wszystko interpretuje i z tego powstaje ta ostateczna ilustracja. Więc ten klasyczny prompt engineering, czyli pisanie tych wszystkich zaklęć, ten spellcasting, o którym Marcin często wspomina, no wydaje się, że za jakiś czas może odejść do lamusa. Tutaj też troszkę potwierdza się to, o czym my też mówiliśmy na konferencjach, przypominam sobie nawet w Krakowie w zeszłym roku, gdzie pytano nas, czy my stawiamy na prompt engineering jako zawód. Wydaje się, że to się może tracić w kolejnych latach, że coś takiego jak właśnie surowa komunikacja z LLM, taka bardzo bezpośrednia, tekstowa, to jest jakiś tam ślad po tych początkowych wersjach tych rozwiązań. A tutaj już Apple pokazuje, że ten tekst zastąpią właśnie ikonki, jakieś klikanie po obrazkach, jakieś mieszanie poszczególnych kształtów form i tak dalej i tak dalej. Prawdopodobnie w tę stronę będzie się to rozwijać, więc to jest Image Playground. Mamy też Genmoji, czyli emoji generowane przy pomocy generatywnej sztucznej inteligencji. Będzie sobie można zaprojektować własną emotkę. emoji w locie, więc nawet jeśli nie znajdziesz tej, o którą ci chodzi do wyrażenia swoich uczuć, emocji i tak dalej, to sztuczna inteligencja już tutaj czeka, żeby spełnić to twoje żądanie i czy to komuś bliskiemu, czy to komuś dalszemu takie genmoji będzie można wysłać. Więc sporo nowości, Apple Intelligence, bardzo taka catchy nazwa, bardzo marketingowa nazwa. 3 poziomy integracji, modele lokalne, modele w chmurze Apple i modele zewnętrzne, no ale niestety też minusy, o których trzeba powiedzieć. Jaki jest pierwszy minus? No jest to pewnego rodzaju ekskluzywność tych wszystkich rozwiązań, zarówno jeśli chodzi o hardware, jak i też jeśli chodzi o lokalizacje o to skąd po prostu klikamy można powiedzieć więc tak po pierwsze Apple Intelligence będzie dostępna na wszystkich urządzeniach z chipami M od samego M1 czyli M1, M2, M3, M4 natomiast jeśli chodzi o smartfony to tutaj ciekawostka na razie będą to jedynie iPhone’y 15 Pro i 15 Pro Max więc jeśli macie iPhone’a poprzedniej generacji to niestety czekają Was zakupy jeśli macie ostatniego iPhone’a z tego najwyższego segmentu to tam Apple Intelligence się pojawi No i teraz czekamy na to, jak tak naprawdę to będzie wyglądać dalej. Co z generacją szesnastą? Apple argumentuje to faktem, że tam są ograniczenia na poziomie RAM-u, na poziomie pamięci. Po prostu te czipy, które znajdują się w iPhone’ach z niższej półki nie zmieściłyby tych modeli lokalnych. Co wydaje się rozsądną odpowiedzią, ale nie rozsądną z tego powodu, że prawdopodobnie tam oba działy wiedziały o sobie. Dział hardware’u wiedział, że Apple Intelligence nadchodzi. Apple Intelligence wiedziało, że iPhone’y są takie, a nie inne. No jednak została taka, a nie inna decyzja podjęta. więc niestety aktualizacja sprzętu na nas czeka. No i też jeśli chodzi o dystrybucję, no to Apple wspomina, że od jesieni tego roku Apple Intelligence pojawi się na określonych urządzeniach, ale tylko wtedy jeśli US English będzie ustawione na poziomie ustawień, więc jeśli będziemy mieć system operacyjny w języku angielskim, to tam to Apple Intelligence będzie rozszerzać możliwości systemu. Jeśli klikamy z Polski, no to tutaj surprise, surprise, tego Apple Intelligence nie będzie. Przynajmniej na to wyglądało po tych początkowych materiałach, po tym czego się dowiedzieliśmy na poziomie samej konferencji, ale potem okazało się, że tych ograniczeń jest jeszcze więcej. Okazało się, że w Europie na razie nie dostaniemy nie tylko samego Apple Intelligence, ale nie dostaniemy też chociażby udostępnienia ekranu z iPhona na naszego Maca, czyli bardzo ciekawej funkcji, na którą czeka wielu chociażby deweloperów aplikacji mobilnych. Nie trzeba stosować emulatorów, można udostępniać swój prywatny telefon na ekran Maca. No i też nie dostaniemy SharePlay Screen Sharing, czyli takiej opcji, którą Apple pokazywała w tej formie, że powiedzmy Marcin ma jakiś problem ze swoim sprzętem, udostępnia mi ekran, ja na swoim sprzęcie widzę jego ekran, jego pulpit, jestem takim działem supportu i mogę mu tam jakąś opcję wyklikać, jakiś problem rozwiązać. Tego też niestety nie będziemy mieć. Apple wspomina, że to wszystko przez nowe regulacje Unii Europejskiej Digital Markets Act. Myślę, że z tego co ja czytałem nie ma jednoznacznego sygnału, że nie doczekamy się wcale na te rozwiązania. Jedynie było wspomniane, że Apple musi jakby wymyślić sposób integracji zgodny z Digital Markets Act. Jakby oni muszą się przygotować do tych wszystkich rozszerzeń, rozporządzeń. Więc tak to wygląda, więc i plusy i minusy. Z mojej perspektywy konferencja była mocna, głośna do momentu jak nie przyszliśmy właśnie do samej dostępności. Okazuje się, że my tutaj z Marcinem troszkę przez szybę sobie to wszystko jeszcze pooglądamy, ale też chyba jesteśmy, Marcin, do tego przyzwyczajeni, prawda? Jak prowadzimy ten podcast to Unia Europejska, Polska to są takie lokalizacje, gdzie nie jesteś pierwszy w kolejce do dostawania tego typu nowości i rozszerzeń.
Marcin
Niewątpliwie tak jest, aczkolwiek jeżeli jestem w stanie zrozumieć wątpliwości i trudności związane z Apple Intelligence, to niespecjalnie jestem w stanie zrozumieć jak to się ma do tych funkcji związanych z screen sharingiem, jakie tutaj są wątpliwości. No i zresztą całe to zamieszanie związane z Digital Markets Act nie ma żadnego związku z prywatnością per se, tylko z zastrzeżeniami Unii Europejskiej co do tej marży 30% którą Apple pobiera od wszystkich deweloperów na App Store i to głównie jest problem i brak również dostępności innych marketplace’ów niż App Store’a. Byrokraci z Unii Europejskiej mają zastrzeżenia co do Apple’a, do ich praktyk monopolistycznych no i trzeba przyznać, że Nie są to zastrzeżenia totalnie bezzasadne i raczej faktycznie mogą mieć pozytywny wpływ na sytuację użytkowników rozwiązań Apple’a, więc to bardziej wygląda na działanie lobbystyczne ze strony wielkiej korporacji, monopolisty. no tak naprawdę wymierzone przeciwko użytkownikom w Unii Europejskiej i przeciwko deweloperom. Tak jak zwykle wstaję w opozycji do działań Unii Europejskiej, no to tutaj gdzieś tam bardziej przechylam się właśnie w kierunku tego organu. Tak więc myślę, że jest to dowód na to, że nie jesteśmy jakoś stricte anty-Unia Europejska pod każdym możliwym względem. Tutaj uważam, że faktycznie dbają o nasze interesy lepiej niż to przynajmniej wygląda w Stanach Zjednoczonych, gdzie tego typu działań nie ma. Chociaż z tego co wiem, tam również organizacje pokroju FTC, chyba Federal Trade Commission, tam również się aplowi. Przyglądam właśnie na tle tego typu praktyk, Więc jestem ciekawy jak to wszystko się zakończy. Mam nadzieję, że jak najszybciej i z korzyścią dla użytkowników tak abyśmy mogli z Apple Intelligence w Unii Europejskiej korzystać. Jestem gdzieś tam posiadaczem iPhone’a 15 Pro. Szczerze mówiąc nie widzę wielkich różnic względem iPhone’a 11 Pro, którego posiadałem wcześniej. No już chciałbym, żeby jakkolwiek mi app wynagrodziło ten upgrade, bo obecnie takie mam poczucie, że on kompletnie nie był mi do niczego potrzebny. Tak więc trzymam kciuki, że chociaż będę w stanie generować sobie emoji znajomi. uważajcie, bo coś czuję, że to będzie traumatyczne doświadczenie. Na pewno będzie śmiesznie, na pewno będzie zabawnie. Nie zdziwię się, jeżeli to będzie właśnie największy hit, jeżeli chodzi o Apple Intelligence wśród takich przeciętnych użytkowników, bo możliwość generowania własnych emotek coś czuję wywoła dużo śmiechu i zainteresowania. Przejdźmy może do tego, co z tego wszystkiego wynika, jakie można wnioski wyciągnąć z działań Apple, no bo mówiliśmy o newsach, a teraz spójrzmy taką perspektywę meta, makro, jak to wszystko się ma do sytuacji na rynku sztucznej inteligencji i co też to nam mówi. w jakim kierunku ta branża właśnie generatywnej sztucznej inteligencji będzie zmierzała. Spójrzmy na to, jak zareagowali inwestorzy, jak zareagował rynek na te wszystkie ogłoszenia z WWDC. No bardzo pozytywnie, mimo tych wszystkich problemów, o których wspominaliśmy przed chwilą, no to akcje Apple’a wzrosły o około 10% po tej konferencji, no więc świetny wynik. inwestorzy pozytywnie przyjęli nowości od teama, QK i ekipy. A jeżeli chodzi o tą perspektywę meta, no to widzimy, że Apple jasno wysyła sygnał, że dla nich modele językowe to jest tak naprawdę przedmiot, a nie cel sam w sobie. To jest sposób na to, żeby rozwijać funkcje, rozwijać dostępne usługi, ale nadal w centrum są ich produkty, ich hardware, a całe to zamieszanie związane ze sztuczną inteligencją to jest po prostu sposób, aby ten hardware rozszerzać, aby poprawiać jakość doświadczenia użytkowników. Tak więc zupełnie inne podejście jak firmy typu OpenAI, jak firmy takie jak Antropic, które całą swoją działalność koncentrują właśnie na sztucznej inteligencji. i nawet jeżeli spojrzymy na takiego giganta jak Google, gdzie również to nastawienie na sztuczną inteligencję samą w sobie na te modele jest dużo większe niż w przypadku Apple’a i zupełnie szczerze powiem, że wydaje mi się, że w długim terminie Apple może wyjść bardzo dobrze na tym podejściu, bo widać, że te modele stają się coraz lepsze, coraz tańsze, a za to koszt ich treningu i rozwoju rośnie bardzo dużo i poziom trudności też widać, że wzrasta radykalnie, o czym zresztą zaraz powiemy w ramach OpenAI i opóźnień, które ta firma ma nie tylko na tle teraźniejszości, ale również przyszłości ich ambitnych planów. Tak więc bardzo możliwe, że Team Cook i Apple dobrze odczytują w jakim kierunku to wszystko będzie zmierzać. No i też prawda jest taka, że stosunkowo ciężko tą samą strategię zastosować i skopiować, no bo to oni mają właśnie miliardy urządzeń dostępnych na rynku, nad którymi mają pełną kontrolę. Tak więc, no no bardzo gdzieś tam bystra wydaje mi się technika i odczytywanie tego w jakim kierunku przyszłość będzie zmierzać. nawet jeżeli to co dostaliśmy obecnie w tej pierwszej iteracji nie jest jakieś po prostu rewolucyjne, przytłaczające. Znaczy tak jakby ktoś pewnie miał powiedzieć co Apple zaoferuje na dzień przed konferencją, no to wiele byśmy tych checkboxów w ciemno byli w stanie przewidzieć, a mimo to w długim terminie wydaje mi się, że mogą być dużymi zwycięzcami jeżeli chodzi o sztuczną inteligencję. No i też to wszystko wskazuje, że Nvidia może nie być tak silnym graczem długoterminowo, jak mogłoby się wydawać, no bo Apple nie korzysta z ich rozwiązań. Mają własny hardware, mają własne rozwiązania. No i teraz pytanie, czy właśnie te modele, których cena będzie spadała do zera z czasem, czy to będzie cały czas tak dobry biznes i cały czas dostarczanie tego typu rozwiązań będzie gwarantowało miejsce w w trójce najbardziej wartościowych film na świecie. Tak więc Nvidia pewnie powinna trochę się obawiać tego typu nastawienia, tego typu podejścia. No ale to wszystko tak naprawdę czas pokaże, czy właśnie ta generatywna sztuczna inteligencja cały czas będzie gdzieś tam na pierwszym planie, bo obecnie jest, wszyscy o tym mówią, mówimy o modelach, wszyscy się zachwycają właśnie modelami, analizujemy ceny. Pytanie, czy za 2-3 lata cały czas tak będzie, czy te modele to już nie będzie coś naprawdę, nie będą szczegółem technicznym dla deweloperów, podczas gdy będziemy mówili w kolejnych odcinkach właśnie o tym, co wprowadza Apple do swoich urządzeń, jak zostały rozwinięte usługi Google’a czy Microsoft’u. Wydaje mi się, że tak właśnie może być. Co ty o tym sądzisz Przemek? Jak odczytujesz działanie Apple’a? Czy to jest byste podejście? Czy mimo wszystko OpenAI będzie kruowało aż do końca tego całego zamieszania?
Przemek
Ja myślę, że tu się właśnie uwydatnia jakby to, z jakiej perspektywy patrzymy na cały ten szum informacyjny. Jeśli oceniamy te wydarzenia z perspektywy dwóch, trzech, czterech miesięcy, to bardzo łatwo załapać się na każdego newsa i potraktować go bardzo mocno. Natomiast jak popatrzymy na taką strategię w perspektywie pięciu, dziesięciu lat, no to okaże się, no ja bym stawiał na to, że Apple będzie za pięć, dziesięć lat dalej na rynku i dalej będzie na podobnej pozycji. A to wcale nie musi być prawda dla wielu startupów, które teraz właśnie wstawiają wszystko na sztuczną inteligencję. Widzieliśmy to po prostu wcześniej. Taka jest też co prawda natura startupów, że większość z nich niestety ginie, ale jednak jeśli właśnie pomylimy feature z produktem albo jakiś tam element układanki ze strategią biznesową, no to po prostu gdzieś tam minimalizujemy sobie tą datę przydatności. To zresztą dobrze widać na przykładzie jednej z firm z Doliny Krzemowej. Teraz nie mogę sobie przypomnieć tej nazwy, ale jest firma, która dosłownie robi genmoji. Jest firma, która po prostu robi emoji przy pomocy sztucznej inteligencji, przy pomocy modeli takich jak Stable Diffusion. I to jest wszystko, to jest cała ta firma, więc W momencie kiedy Apple wyjdzie na rynek z Genmoji, w zasadzie jaki jest sens tutaj zapisywać się na płatne subskrypcje tej czy innej usługi, kiedy to wszystko dostajesz za free na poziomie systemu operacyjnego. No i wydaje mi się, że ta strategia takiego właśnie wielkiego integratora, o której ty powiedziałeś, Myślę, że ma sens. Myślę, że tam naprawdę mocne tęgie głowy za tym stoją i po prostu to jest też taka ocena realnych możliwości. Pick your battles, mówi się. Czy naprawdę chcemy się kopać wszędzie, gdzie się da, z wszystkimi, którzy gdzieś tam wyskakują jak grzyby po deszczu? No nie, skupmy się na tym, na czym się znamy dobrze. I to też zresztą bardzo dobrze było widać na samym początku tego segmentu o generatywnej sztucznej inteligencji. Bo Apple zaczął od tego, że jakby przedstawił takie pięć pryncypiów tego, czym oni są jako firma i tam mówili o tym, że właśnie oni jako firma stawiają na prywatność, na osobiste rozwiązania, jakieś jeszcze trzy elementy i powiedział, że my dalej tacy będziemy. A teraz hej, pogadajmy o sztucznej inteligencji. Na zasadzie, dobra, czekaliście na to, ale my jakby w szerszym kontekście działamy. Mamy wiele obszarów, gdzie ta generatywna sztuczna inteligencja to nie jest jakby alfa i omega. Przede wszystkim Apple też bardzo mocno stawia na ten kontakt, na te relacje międzyludzkie i oni nie mogą sobie pozwolić na zastępowanie tego typu działalności, historii, akcji modelami językowymi. Myślę, że to byłaby ogromna wpadka, gdyby np. na poziomie systemu pojawił się jakiś terapeuta oparty o AI, bo to zupełnie nie jest DNA tej firmy i koniec końców chyba będzie to miało sens. Chwilę czekaliśmy na to, co Apple ogłosi. Apple gdzieś tam, jak to Apple poczekała, aż kurz opadnie. Zresztą oni mówią, że nie chcą być pierwsi, oni chcą być najlepsi po prostu. No i będziemy teraz obserwować całą tę integrację. W 100% też zgadzam się z tym co powiedziałeś a propos Unii Europejskiej. Blokada tych funkcjonalności to jest wprost mechanizm lobbystyczny, a nie jakieś ograniczenie na poziomie technologii. Każdy kto kiedykolwiek dotknął programowania wie, że chociażby udostępnianie ekranu nie ma limitów, tak jakby przez ocean nadal można dostarczyć te funkcje w ten czy inny sposób. No i to jest taka decyzja, która pokazuje też, ktoś dobrze określił, pokazuje, że na przykład z perspektywy Apple Unia jako rynek nie jest być może tak istotny jak tutaj wewnątrz w Unii się wydaje. I to też bardzo ciekawe jakby konsekwencje może przynosić w przyszłości, bo widzieliśmy to właśnie jeśli chodzi o tą bitwę App Store’ów, teraz mamy bitwę o Apple Intelligence. Na pewno nasz ulubiony kącik brukserski jakby będzie się pojawiał w kolejnych odcinkach.
Marcin
Chcąc nie chcąc, tak? Przejdźmy teraz do OpenAI, które wyjątkowo w miesiącu czerwcu nie miało za wiele do zaoferowania jeżeli chodzi o nowości. Za to dostaliśmy informacje, ogłoszenia związane z dwoma istotnymi opóźnieniami. Pierwsze opóźnienie dotyczy GPT-4O, a mianowicie trybu VOICE, który był szeroko reklamowany, prezentowany podczas wydarzenia, które ujawniło właśnie sam model GPT-4O. To całe zamieszane, związane z Skadet Johansson z rzekomym skopiowaniem jej głosu w jednym z wariantów tego właśnie trybu głosowego. Tego typu rozwiązanie, to właśnie rozwiązanie miało być udostępnione w ramach testów alfa pod koniec czerwca. Te testy alfa na wybranej grupie użytkowników zostały przesunięte o miesiąc na końcówkę lipca. z przyczyn związanych z bezpieczeństwem. Jak się okazuje OpenAI cały czas dopracowuje bezpieczeństwo tego rozwiązania tak aby odmawiało niektórych komend, niektórych tematów konwersacji. Cały czas są z tym problemy. No i jak firma donosi właśnie przez lato będą testy na wybranych użytkownikach. A wszyscy użytkownicy ChargePT Plus i innych planów płatnych mają doczekać się tego rozwiązania jesienią tego roku, więc jeszcze kilka miesięcy na Voice Mode poczekamy. A szkoda, no bo wszyscy na pewno chcieliby zobaczyć jak to działa w praktyce. I co ważne, ten voice mode jest rozdzielony jeszcze od tych funkcji związanych ze screen sharingiem i z camera sharingiem. One mają osobny timeline i tutaj nie dostaliśmy żadnych konkretów kiedy to będzie się pojawiało, kiedy to będzie udostępniane. No więc widać, że OpenAI na tej swojej konferencji, na tym swoim wydarzeniu pokazało, że wszystko mamy gotowe. Już za kilka tygodni wszyscy będziecie z tego korzystali. Future is now. A nagle się okazuje, że to jak wszystko będzie do końca tego roku, to dobrze będzie. Więc tak jak chwaliliśmy OpenAI na tle Google, które tylko zapowiadało, tylko obiecywało, no to się okazuje, że firmy są w bardzo podobnej sytuacji jak zresztą appy. Mają ambitne plany, no wszystko to budzi duży entuzjazm, ale jeżeli chodzi o gotowość na globalny masowy rollout, no to tej gotowości najwyższej w świecie jeszcze nie ma. Tak więc, no tutaj punkt dla Google’a, a może trzeba odjąć punkt z tablicy OpenAI, bo aż takiej przewagi wcale nie mają, jak się okazuje. No i druga informacja, która póki co przeszła tak zrozumkowo cicho, ja podczas głębokiego researchu do tego podcastu i do newslettera, który wyszedł dzisiaj rano, natrafiłem na informację o tym, że oczekiwane GPT-5, które już wiele osób spodziewało się, że będzie pod koniec zeszłego roku, potem wiele osób się spodziewało że to właśnie dostaniemy informacje o GPT-5 a nie o GPT-4O podczas tego wydarzenia majowego OpenAI. No i potem gdzieś tam była plotka, że w wakacje dostaniemy to GPT-5. No jak się okazuje Mira Murati podczas wywiadu dla Dartmouth Engineering wspomniała gdzieś tam mówiąc o planach firmy i o tym jakie możliwości GPT-5 będzie oferowało. że na ten model będziemy musieli czekać jeszcze około półtora roku, więc najwcześniej pod koniec 2025 roku dostaniemy ten model. No i oczywiście to są obecne estymaty, a jak to z estymatami bywa, jeżeli chodzi o tworzenie oprogramowania, no to jeszcze może by się pewnie dość grubo z tą datą rozjechać, chcąc nie chcąc. więc kto wie czy my ten model dotkniemy przed rokiem 2026 w jakiejkolwiek formie. Co istotne, no więc mamy takie opóźnienie, jest to istotne opóźnienie, więc dla wszystkich osób, które się boją, że AGI już jutro i w ogóle firmy pędzą i to już wszystko się dzieje i to jest tylko kwestia czasu, no to wygląda na to, że wcale nie. Jak widać są trudności, jak widać to nie jest takie proste. Bardzo możliwe, że to o czym wspominaliśmy podczas konferencji InfoShare, czyli problemy z mocą obliczeniową, z dostępnością energii i z wielkimi kosztami faktycznie OpenAI już trochę dociska do ziemi. Ta grawitacja działa i to wszystko nie jest takie proste, że z roku na rok będziemy mieli wielkie przeskoki, bo jedyne czego trzeba to ileś tam miliardów dolarów, które oczywiście Microsoft jest gotowy łożyć na tą firmę. ale to nie wystarcza i po prostu tego czasu najzwyczajniej w świecie. Trzeba więcej, żeby przejść na kolejną zupełnie nową generację, bo jak się okazuje właśnie takie plany ma OpenAI. Jak powiedziała Mira Murati, GPT-4 to był bystry licealista, a GPT-5 w niektórych zadaniach ma być na poziomie doktoranta. Tak więc znaczny postęp to już jest jakaś forma tego AGI, bo poziom doktoranta to jest poziom bystrego człowieka. Oczywiście w danym kontekście to nie jest powiedziane, że w każdym tak będzie, ale w wybranych zadaniach, być może w programowaniu tego możemy się spodziewać. Takie obietnice właśnie Mira Murati, CTO OpenAI złożyła podczas tego wywiadu. Jak będzie w praktyce, no to czas pokaże, bo nie mamy realnie żadnych konkretów więcej jak to GPT-5 będzie działało, kiedy dostaniemy jakieś pierwsze teasery. Nic tutaj nie jest wiadome, ale wiemy, że nie w tym roku. To już na pewno. No i może Przemku oddam Ci głos, bo jeżeli chodzi o OpenAI ekipę, no to z mroku, z niebytu wrócił Ilya Syskever, jeden z współtwórców tej firmy, który jak wiemy w maju odszedł z OpenAI po prawie dziesięciu latach pracy nad tą firmą, no i wraca z nowym projektem. Opowiadaj co tam Ilya dla nas szykuje, jakie ma teraz plany.
Przemek
Tak, ja to widzę trochę jak taką historię o synu marnotrawnym, że był zagubiony, a odnalezł się jakoś. Tak to wyglądało, tak to jakoś było po prostu w Biblii. Trochę w tym stylu ta historia, bo mieliśmy przewrót pałacowy jakiś czas temu w OpenAI. Była próba tutaj odłączenia sama Altmana od kierownictwa tej firmy. Potem okazało się, że ten przewrót pałacowy tak naprawdę nie doszedł do skutku. No i mieliśmy taki moment ciszy. Ilya Sutskever gdzieś tam odsunął się w cień. Pojawiały się plotki, pogłoski, że bardzo go to jakby emocjonalnie dotknęło. Ten fakt, że gdzieś tam zamachnął się na lidera firmy, który miał być rzekomo jego przyjacielem, ale po prostu na poziomie biznesowym panowie się nie dogadywali. Przez dłuższy czas nie wiedzieliśmy, co z tym Ilion będzie. No i teraz dowiadujemy się, że Ilya Sutskever stoi za nową inicjatywą o nazwie Safe Superintelligence Inc. Razem z dwoma pozostałymi panami, z Danielem Levym. który jest również absolwentem OpenAI i byłym szefem AI w Apple Danielem Grossem. Cała ta trójka zakłada firmę, która będzie się skupiać na rozwijaniu bezpiecznych systemów sztucznej inteligencji o dużym potencjale. Firma opublikowała manifest, on jest dostępny na stronie sse.inc gdzie pierwsze zdanie mówi super intelligence is within reach, czyli jakby godzimy się wszyscy, jakby rozumiemy, że super inteligencja jest w zasięgu, nie ma tutaj konkretnych ram czasowych, ale mamy to poczucie, że coś mocnego, coś dużego jest na horyzoncie i trzeba tym dużym potencjałem zarządzić. Więc SSI, czyli Safe Super Intelligence Inc. ma po prostu skupiać się na tworzeniu bezpiecznych systemów o dużym potencjale, cokolwiek to znaczy, bo od dzisiaj jeszcze nie uzyskaliśmy tak naprawdę szczegółów, co ta firma będzie wypuszczać na rynek. Natomiast wiemy jakie są korzenie, jaki jest background całej tej trójki, wiemy na przykład, że Ilya Suskever bardzo mocno skupiał się na temacie super alignmentu, czyli właśnie rozwijania systemów sztucznej inteligencji, projektowania metod kontroli dla tych systemów w taki sposób, żeby one były zgodne z celami, z potrzebami ludzkości. Ten super alignment to był zresztą jeden z takich większych cierni, można powiedzieć, tej całej sytuacji w tym przewrocie pałacowym, no bo już teraz z perspektywy czasu dowiadujemy się, że tam właśnie to priorityzowanie bezpieczeństwa miało być jednym z głównych powodów do konfliktu, który tam się pojawił jakiś czas temu. Część firmy nie była zadowolona z faktu ile czasu, ile mocy obliczeniowej poświęcone jest temu problemowi. Druga część firmy z samym Altmanem na czele według tutaj Doniesień medialnych była skupiona jednak na celach biznesowych, na tym agresywnym przesuwaniu kolejnych deadline’ów, możliwości tego produktu i stąd ten rozłam. Safe Super Intelligence właśnie będzie się teraz skupiał na tym, żeby systemy nie powodowały krzywdy, żeby były bezpieczne, żeby były kontrolowane. i żeby działały tak, jak ludzkość może sobie to wyobrażać. Bardzo przypomina mi to filozofię firmy Antropic. Tam również ten rozłam z OpenAI miał być rzekomo tym powodowany. Ja właśnie w momencie przygotowywania tego filmu na YouTube poczytałem sobie więcej o tym, co tam się działo w momencie, kiedy Daria i Daniela Amodei, czyli to rodzeństwo, odchodziło z OpenAI. Tam były bardzo podobne argumenty. Oni twierdzili, że OpenAI zbyt mało czasu poświęca na temat bezpieczeństwa. Zdecydowali się pójść w swoją stronę i teraz mamy tak naprawdę powtórkę tej historii. Mamy nową firmę od samego Ilii Sutzkevera, która na tym bezpieczeństwie ma się skupiać. Zobaczymy jak to będzie wyglądać w przyszłości, zobaczymy co ta firma realnie dowiezie. Marcin też cię chętnie zapytam co ty o tym sądzisz. Ja widziałem jeden z takich komentarzy na Hacker Newsie, w zasadzie dwa. Jeden z nich mówił, że wygląda to jak firma, która ma na przykład militarny AI budować, czyli coś, o czym się nie dowiemy przez dłuższy czas. Będzie jakby taki entity na rynku, nie wiadomo co ono będzie tworzyć, nie wiadomo dla kogo i tak dalej, ale będzie się utrzymywać. Ale z drugiej strony też widziałem komentarz, że Nie musi być dobry produkt, żeby to był dobry biznes. Temat superalignmentu i tego bezpiecznego AI jest czymś, co będzie się pojawiać. Ta obawa będzie podbijana co jakiś czas. O numeryzmie też mówiliśmy sporo w poprzednich odcinkach. Więc tutaj jakby autor tego komentarza sugeruje, że sama ta idea tworzenia bezpiecznego AI jest wystarczająca do zbierania funduszy. Ale wiem, że ty masz troszkę inne spojrzenie na ten temat.
Marcin
No tak, no bo firma gdzieś tam na swojej stronie w swojej misji mówi, że jedynym celem będzie właśnie opracowanie tej bezpiecznej sztucznej inteligencji, że nie będzie żadnych etapów pośrednich jak to w przypadku OpenAI czy Antropika, że wypuszczamy poszczególne modele, które krok po kroku nas do tej generalnej sztucznej inteligencji doprowadzają. Tutaj Ilya mówi, że nie. Będzie jeden produkt i tym produktem będzie właśnie to Safe Super Intelligence. No i ja szczerze mówiąc mam dość duże wątpliwości, czy taki projekt zdobędzie odpowiednie finansowanie. Oczywiście nie mam wątpliwości, że setki milionów dolarów w przypadku takiego nazwiska na pewno leżą na stole, ale musimy pamiętać, że tutaj niepotrzebne są setki milionów dolarów, tylko pewnie setki miliardów, żeby zrealizować ten cel, no bo to jest tak gdzieś tam za sobą kapitałożerny projekt, żeby opracować generalną sztuczną inteligencję. Nikt nie wie, ile pieniędzy będzie potrzebne, no ale już obecne nakłady na te nowe generacje sztucznej inteligencji jak GP5 liczy się w dziesiątkach miliardów dolarów, a to jeszcze chyba nie będzie koniec tej zabawy i to nie będzie sposób na zrealizowanie tego celu. No więc ciężko mi sobie wyobrazić, że kilku oczywiście bardzo wybitnych badaczy będzie w stanie sfinansować taki projekt. Wydaje mi się, że bez korporacji, która chce na tym projekcie po drodze niemało zarobić poprzez zastosowania czysto biznesowe, czy to w ogóle będzie najwyższej w świecie możliwe do realizacji. Więc tutaj mam dość duże obawy, dość duże zastrzeżenia oczywiście. Fajnie, gdyby tego typu system opracowała właśnie firma, która koncentruje się na bezpieczeństwie, ale jak wiemy, chociażby ze świata normalnego oprogramowania, web developmentu, to działalność skoncentrowana na bezpieczeństwie raczej też spowalnia postępy nad produktem, a nie je przyspiesza. Jeżeli tworzymy aplikacje webowe, to skupianie się na bezpieczeństwie to nie jest coś, co przyspiesza nasz projekt, tylko go spowalnia. Nawet pisanie testów spowalnia postępy nad projektem, zwłaszcza w krótkim terminie. No i też nie przez przypadek właśnie To podejście OpenAI, gdzie to bezpieczeństwo jest spychane na drugi plan, no bo oni najzwyczajniej w świecie chcą zarabiać pieniądze, chcą iterować nad swoimi rozwiązaniami. No i właśnie działalność na rzecz bezpieczeństwa najzwyczajniej w świecie to proces spowalnia i stąd te mniejsze zasoby. Gdyby to nie wiązało się ze spowolnieniem iteracji, to myślę, że sam Altman nie byłby jakimś antyfanem bezpieczeństwa, no bo on często mówi wprost, że to bezpieczeństwo jest dla niego ważne, no ale w biznesie mamy skończoną ilość zasobów i jeżeli musimy wybierać pomiędzy kolejnym releasem, a po prostu dziesiątą rundą testów bezpieczeństwa, no to wiadomo, że jako przedsiębiorca jednak decyduje się na ten release, no bo są akcjonariusze, jest ten Microsoft, który chce wyników z tych zainwestowanych pieniędzy. No i w rzeczywistości tak to niestety wygląda. I trochę no niestety Panowie Ilya Seskever i pozostali cofounderzy to są ci sami pewnie trochę ludzi, co w firmach takich tradycyjnych technologicznych narzekają, że właśnie nie mamy 100% pokrycia testami, że nie mamy idealnie zaimplementowanych wszystkich feature’ów, ale jak to przecież to nie jest idealny produkt, na który nasi użytkownicy zasługują, a my mamy jakiś kwartalny release, mamy jakieś oczekiwania korporacyjnych użytkowników, którym po prostu trzeba dowieść, bo inaczej pójdą do konkurencji. No i teraz gdzieś tam w rzeczywistości biznesowej często musimy chodzić na tego typu nieprzyjemne kompromisy, a takie bezkompromisowe podejście, no nie wiem, czy po prostu da się je zrealizować zwłaszcza przy tak ambitnym celu w rzeczywistości, która jest jaka jest. Trzeba te pieniądze zebrać i zarabiać, jeżeli chcemy stworzyć coś, co może być ostatnim dziełem człowieka na Ziemi, bo potem będziemy oddawali stery do sztucznej inteligencji. Tak więc mimo, że jest to ambitna misja, jest to dobra misja, jest to coś, co myślę, że każdy pochwala, żeby tego bezpieczeństwa było jak najwięcej, to obawiam się, że przykra, brutalna rzeczywistość może zweryfikować plany Illy i nic z tego po prostu na dłuższą metę nie wyjdzie. Ale obym się mylił, czas pokaże. A co ty o tym sądzisz Przemku, jak na to patrzysz?
Przemek
No wiesz, z drugiej strony odbijając tę piłeczkę w temacie finansowania, to ja sobie myślę, że troszkę to wszystko rozbija się o narrację. Jeśli firma będzie w stanie przedstawić dobrą narrację, to będzie chodziło o to, żeby tego króliczka gonić, żeby ten super alignment budować, niekoniecznie myśląc o tym, czy w ogóle jest po co go budować, czy może te systemy w ogóle mają potencjał, gdzie to bezpieczeństwo będzie na tyle istotne. Więc wiesz, myślę, że stąd właśnie ten komentarz na Hacker News, który przytoczyłem, że to może być dobry model biznesowy nawet bez dobrego produktu, co wydaje się zupełnie sprzeczne z intuicją, ale jeśli miałbym tutaj zrobić jakiś steel mining, poszukać tutaj mocnych stron takiej uwagi, no to myślałbym chyba o tym, że jeśli po prostu ta narracja anty- albo właściwie pro-dumeryzmowa, bo to tak naprawdę do tego się sprowadza, będzie odpowiednio mocna, no to w kolejnych kwartałach będzie po prostu backup w postaci kolejnych rund finansowania, albo support jakiś w kontekście kolejnych rund finansowania. Myślę, że to może o to chodzić. Natomiast jeśli chodzi o samo to bezpieczeństwo i te trade-offy, o których ty powiedziałaś, to też bardzo dobra uwaga, no bo to też jest trudne do oceny. Wiem, że pojawia się jakaś informacja właśnie też w przestrzeni publicznej od jednego z pracowników, chyba to była pani, której nazwiska teraz nie wymienię, która powiedziała, że właśnie O tą moc obliczeniową sprawa się rozbijała i fakt, że czas na wykonywanie algorytmów, na trenowanie modeli, które miały to bezpieczeństwo badać, nie był udostępniany. Teraz można na to popatrzeć z dwóch perspektyw. Czy nie był udostępniany z jakiegoś powodu, z powodu jakiegoś masterplanu, który po prostu powstrzymuje tę ekipę superalignmentową od realizacji swoich celów, czy po prostu z pełną świadomością tego, że dzisiejsze systemy nie są warte tego, żeby po prostu więcej mocy obliczeniowej poświęcać na coś, co nie sprawdzi się jeszcze w rzeczywistości. Więc ja myślę, że obie strony mają tutaj swoje argumenty, sam fakt, że Ten przewrót pałacowy się odbył, dla mnie pokazuje, że tam naprawdę była mocna dyskusja. Ilya Suskever też nie rozpoczynałby kolejnego przedsięwzięcia z tak mocnym manifestem, gdyby po prostu nie wierzył w to, co komunikuje. A to jest gość, który jest naprawdę szeroko szanowany, jest uważany za jednego z najbardziej renomowanych naukowców w tym świecie sztucznej inteligencji. Ja pewnie z takim zacięciem bardziej produktowym jestem w teamie OpenAI i szyb, szyb, szyb chciałbym oglądać te nowe produkty, ale z drugiej strony będę obserwował co tutaj będzie się pojawiać na rynku. Też widać, że w Dolinie Krzemowej w kontekście tego co się dzieje na świecie pojawia się vibe technologii dla zastosowań wojskowych, czyli czegoś co bardzo mocno było passe przez długi czas. W ostatnich miesiącach chociażby Palmer, Lucky, firmy takie jak Anduril zbierają miliardowe inwestycje na swoje produkty, więc nie wiadomo czy np. nie mówimy tutaj o firmie, która np. dla wojska będzie coś produkować. Taki Janek Kowalski, jak ja czy ty, przez dłuższy czas nie dowie się po prostu o tym, co ta firma produkuje, a ona będzie się utrzymywać na rynku. Jeszcze kilka lat temu w Dolinie Krzemowej to było zupełnie pase, żeby takie rozwiązania robić, bo przecież był pokój na świecie, nie było mowy o żadnych wojnach i konfliktach, był koniec historii, teraz to się zmienia, więc kto wie, czy też nie pójdzie to w tę stronę, zobaczymy.
Marcin
Zobaczymy, no to dobijając do brzegu tradycyjnie wybierzmy nasze top of the month. Co najbardziej nas zachwyciło, jeżeli chodzi o czerwiec i sztuczną inteligencję. Ja może od razu zacznę. No to dla mnie wybór jest stosunkowo prosty. Jest to Cloud 3.5 Sonnet. No a tak naprawdę te artyfakty, które się pojawiły razem z tym modelem No bo wiadomo, pewnie za miesiąc, za dwa będzie model lepszy od Cloud 3.5 Sonnet, a artefakty coś czujesz zostaną z nami najdłużej i to będzie nowy standard, nowa jakość jeżeli chodzi o user experience, sztuczne inteligencji, więc właśnie na artefakty od Antopica bym postawił jeżeli chodzi o mój top pick.
Przemek
Ja daję tutaj plus jeden, przede wszystkim z powodu rozbicia monopolu, jaki OpenAI tutaj budował na naszym rynku. Wydaje mi się, że tak naprawdę ChargePT, tak jak powiedziałem, to był synonim sztucznej inteligencji. W oczach wielu osób jakby przeciętny użytkownik nie jest świadomy tego, że na rynku są inne firmy z innymi modelami. Myślę, że Antropik teraz bardzo mocno przebił się do świadomości. i po prostu ta konkurencja przyniesie korzyści dla nas jako dla użytkowników końcowych, niezależnie czy mowa o artefaktach czy projektach, tak jak ty wspomniałeś, no po prostu widać, że tam będzie presja na to, żeby być coraz bardziej innowacyjnym, żeby coraz ciekawsze rozwiązania dostarczać i to wszystko z korzyścią dla nas, więc zdecydowanie plus jeden do Antropica i nowego modelu Sony.
Marcin
Dokładnie tak. I tym oto sposobem zamykamy podsumowanie czerwca. Jeżeli odcinek przypadł wam do gustu, to zachęcamy aby się nim podzielić w social media, czy to na Instagramie, czy to na LinkedInie. Będziemy wdzięczni za każdego share’a. I oczywiście warto ten odcinek ocenić na Waszej platformie podcastowej i zostawić 5 gwiazdek pod opanuj.ai. Dzięki temu ten podcast będzie szerzej polecany przez platformy. Pozwoli nam to dotrzeć do szerszego grona.
Newsletter Opanuj AI
Subskrybuj ręcznie selekcjonowane materiały z obszarów AI i rynku nowych technologii, które pomagają dowozić lepsze rezultaty i budować kulturę innowacji
- W każdy poniedziałek
- Otrzymuj podsumowanie najważniejszych informacji z branży AI i nowych technologii. Gwarantujemy zero spamu i tylko wartościowe treści.
- Tylko najlepsze materiały
- Materiały zamieszczane w newsletterze przechodzą proces selekcji, gdzie wymagamy jakości i możliwej do wykorzystania wiedzy.