Podcast Opanuj.AI

Bądź zawsze na bieżąco

3 kwietnia 2024

Claude 3 detronizuje GPT-4, a Devin straszy programistów | Co słychać w AI (Marzec 2024)

Słuchaj na twojej ulubionej platformie

Transkrypcja odcinka

Tekst wygenerowany automatycznie - może zawierać drobne błędy i literówki

Przemek:

Dzień dobry, cześć i czołem. Z tej strony Przemek i Marcin, czyli Przeprogramowani, podcast o Opanuj.ai. Witamy w kolejnym odcinku naszych comiesięcznych podsumowań nowości i aktualizacji ze świata sztucznej inteligencji. Jak co miesiąc naprawdę sporo w tym świecie się działo. Nie było jeszcze takiego miesiąca, gdzie byłoby nam trudno tutaj zbudować agendę. Zazwyczaj kończy się to tak, że usuwamy tematy, które się po prostu w tych odcinkach nie mieszczą. No i w tym konkretnym odcinku jest podobnie. Ja ciebie, Marcin, witam serdecznie.

Marcin:

Cześć, kłaniam się.

Przemek:

No i myślę, że możemy krótko zapowiedzieć temat, a właściwie tematy tego dzisiejszego odcinka. Mamy również kilka informacji dodatkowych i przejdziemy do właściwej części tego naszego nagrania. Więc co w tym naszym podcaście dzisiaj, co dla Was przygotowaliśmy? A no zaczniemy od naprawdę grubego, poważnego newsa. Porozmawiamy o konkurencji dla GPT-4, o alternatywie dla GPT-4, o modelu, który tak naprawdę zbił z tego stanowiska lidera model, który do tej pory był uznawany za state of the art, czyli o modelu Cloud3 Opus z firmy Antropic. Porozmawiamy również o agentach AI i o tym, czy programiści muszą się już obawiać o swoje stanowiska, a to wszystko za sprawą DEWINA, czyli AI Software Engineer od firmy Cognition AI. Oczywiście zastanowimy się, ile w tym wszystkim jest prawdy, a może to jest kolejna marketingowa wydmuszka, zobaczymy. No i na końcu porozmawiamy również o tym, co słychać w AI bardzo przekrojowo. Sam Altman odwiedził Lexa Friedmana, mamy nowe usługi oparte o sztuczną inteligencję, które Wam również przedstawimy, no i kilka nowości ze świata garmażerii i sieci handlowych, sieci sprzedażowych, to myślę na sam koniec. Zanim zaczniemy, to jeszcze bardzo ważna informacja, w zasadzie bardzo ważne podziękowania. Okazuje się, że nasz podcast zajmuje obecnie czwarte miejsce w Polsce w kategorii technologicznych podcastów. Serdecznie dziękujemy za tak dobry odbiór tych naszych nagrań. Dzięki za to, że śledzicie, że podajecie dalej, że jesteście tutaj z nami. Oczywiście ten feedback jest krytyczny, żeby to wszystko dalej się kręciło w ten sposób, a może i lepiej, bo taki jest nasz cel, żeby oczywiście tę poprzeczkę sobie podnosić, więc serdecznie za to dziękujemy. Postaramy się wbić na miejsce pierwsze. Tam jest Lex Fridman. Zobaczymy, jak tutaj z Lexem Fridmanem przyjdzie nam konkurować. Natomiast naprawdę dziękujemy. Jesteśmy mega wdzięczni za odbiór tego podcastu. No i kontynuujemy te prośby o wsparcie, o podawanie dalej, o udostępnianie, pisanie komentarzy. Na wielu innych platformach pojawiają się również dodatki do tych naszych rozmów, macie właśnie wideo na przykład na Spotify, macie ankiety, quizy, które również możecie rozwiązywać, więc to wszystko to jest cały ten produkt, który nazywamy podcastem Opanuj.ai. A Opanuj.ai to jest również newsletter, newsletter na stronie Opanuj.ai, kiedy zapiszecie się na listę mailingową, to co poniedziałek na waszej skrzyńce pojawią się Trzy linki podsumowujące najważniejsze wydarzenia ze świata sztucznej inteligencji z ubiegłego tygodnia. Punktualnie od kilkunastu dobrych miesięcy co poniedziałek rano takie linki wysyłamy. Możecie się zapisać i traktować takie mailingi jako dodatek do tego naszego podcastu. Też serdecznie zapraszamy do zapisania się na naszą listę mailingową. No i oczywiście nasze warsztaty, jeśli już słuchacie podcastu, słuchacie naszych tutaj opinii, obserwacji na temat świata AI, machine learningu, śledzicie nasz newsletter, to być może będziecie jeszcze chcieli wziąć udział w warsztatach Opanuj AI. Prowadzimy takie warsztaty wspólnie z Marcinem dla wielu firm, które reagują całkiem pozytywnie, wystawiają referencje, te referencje możecie zobaczyć na naszej stronie. Więc jeśli jesteście zainteresowani takimi warsztatami, które zorganizujemy dla Was, to koniecznie dawajcie znać. Mamy też informacje nieco inne, ale myślę, że tutaj sobie przeplatamy tę naszą agendę, Marcin. Mamy Opanuj Frontend AA Edition, o którym możemy powiedzieć w dalszej części tego naszego podcastu też jeszcze będzie myślę odpowiednia pora. A teraz, żeby nie wydłużać tego wstępu, który i tak już jest naprawdę długi, no to chciałbym Cię zaprosić do przedstawienia tego lidera konkurenta GPT-4, co tak naprawdę W tym świecie AI się ostatnio wydarzyło.

Marcin:

Tak więc Antropic na początku marca, dokładnie 4 marca, wypuściło rodzinę modeli Cloud 3, która podobnie jak w przypadku Google Gemini, oferuje nam trzy modele. Mamy do dyspozycji model Haiku, Sonnet oraz Opus i każdy z tych modeli oferuje coraz wyższą wydajność. No i oczywiście trade-offem jest inteligencja, szybkość i koszty danego modelu. Co ważne, jeżeli chodzi o koszta Haiku i Sonnet, to one są bardzo imponujące. Jest to bardzo dobry próg cenowy, konkurencyjny dla GPT 3.5 Turbo, przy znacznie lepszej wydajności. Jeżeli chodzi o Cloud 3 Opus, to jest to model droższy od GPT 4 Turbo, aczkolwiek oferuje on wyższe możliwości, wyższą inteligencję, ale o tym za chwilę. No właśnie, o tej wydajności porozmawiajmy. No bo oficjalnie mieliśmy dostać do dyspozycji modelek w przypadku Haiku Sony, które miały konkurować z GPT-3.5 Turbo, a jak się okazało w rankingu Chatbot Arena, biją one na głowę ten model i niemal są konkurencją dla GPT-4, dla poprzednich wersji co prawda. ale zajmują obecnie piąte i siódme miejsce w tymże rankingu. No a wspomniany ten największy model, ten o największych możliwościach, czyli Cloud 3 Opus zajmuje miejsce lidera. Co prawda rzutem na taśmę to jest różnica kilku punktów, ale wygrywa faktycznie z GPT-4. W ramach krótkiego przypomnienia, czym w ogóle jest ten ranking Chatbot Arena, jak to wszystko działa. No więc jako użytkownicy wchodzimy w tą właśnie arenę, dostajemy do dyspozycji dwa okna, zapytanie i odpowiedzi z dwóch modeli anonimowych. No i musimy wyrazić opinię, zagłosować, która z odpowiedzi naszym zdaniem jest wyższej jakości. I właśnie na tej podstawie są wyznaczane te rankingi. Więc mamy takie testy double blind, zgodne z metodą naukową. Wydaje mi się, że ciężko znaleźć lepszy sposób na porównywanie modeli niż to, co właśnie Chatbot Arena oferuje. No i właśnie w tych rankingach wszystkie rodziny, znaczy wszystkie modele z rodziny Cloud 3 znajdują się w top 10. Tak więc no niesamowite wyniki. No ale więcej jeszcze o tych modelach, co one tak naprawdę oferują i też jakie mają use case’y. Tu muszę tak naprawdę pochwalić blog post, który zapowiedział te modele. Jest on naprawdę dobry. Mamy tam konkretne informacje przedstawione w jasny, zrozumiały sposób. Świetna robota. Moim zdaniem ktokolwiek za ten post odpowiada powinien dostać gdzieś tam podwyżkę bądź też awans. Dawno nie widziałem takiego dobrego anonsmentu tak naprawdę. Dobra, ale wracajmy do modeli. Mamy tutaj do dyspozycji 200 tysięcy tokenów w przypadku każdego z tych modeli w takiej wersji bazowej, która będzie dostępna w API. I co to również znaczy z technicznego na nasze? 200 tysięcy tokenów to jest około 150 tysięcy słów, czyli 600 stron. I tutaj oczywiście mówimy o języku angielskim, jeżeli mówimy o języku polskim, no to trzeba te wartości podzielić około przez dwa, więc możemy liczyć, że taki Cloud 3 Sonnet bądź Opus będzie w stanie przeanalizować np. 300-stronnicową książkę w języku polskim, co już jest naprawdę imponującą ilością. Jeżeli mamy jakieś PDF-y w firmie, bądź inne źródła wiedzy, to bez większych problemów modele z rodziny Cloud 3 sobie z analizą tego typu dokumentów poradzą. I co ważne, Cloud 3 Opus bardzo dobrze sobie radzi z wyciąganiem tych informacji. Jest niemal gdzieś tam bezbłędny, ma 99% skuteczność, jeżeli chodzi o wyciąganie informacji. Co ważne, Cloud 2, czyli poprzednia rodzina modeli od Andropic, również osiągała tutaj dobre wyniki, ale tu mamy jeszcze lepiej, praktycznie brak jakichkolwiek błędów.

Przemek:

Ja bym wspomniał o tej perspektywie użytkownika, bo to jest myślę też bardzo istotne. Wiadomo, że statystyki statystykami, parametry parametrami, ale myślę, że warto też powiedzieć o tym, jak to się przekłada na takie faktyczne korzystanie z tego modelu. W jaki sposób w ogóle to się mierzy? Ty mówiłeś o o jednym systemie, jednej aplikacji, gdzie możemy porównywać modele, czyli LM Arena, chatbot Arena od LMSys. Natomiast tutaj w tym blogpostie, który ty przywołałeś, mamy jeszcze podsumowanie trzech rodzajów odpowiedzi, które generują modele językowe, na podstawie których również można oceniać ich performance, to znaczy Antropic, firma, która stoi za Cloud 3, zmierzyła to, jak często model udziela poprawnych odpowiedzi, niepoprawnych odpowiedzi, ale też odpowiedzi pod tytułem nie wiem, bo to też są niestety często występujące odpowiedzi. W przypadku GPT-4 jak głosi popularna opinia, coraz częściej na takie odpowiedzi można niestety natrafić, to też nie jest do końca opisane, zbadane, nie ma na to twardych danych, ale takie opinie się pojawiają. No i tutaj wychodzi, że właśnie Cloud 3, nowa rodzina modeli, W każdym z tych trzech segmentów, czyli zarówno jeśli chodzi o poprawne odpowiedzi, niepoprawne odpowiedzi i unikanie tych odpowiedzi nie wiem, wypada lepiej od poprzedników. Częściej udziela odpowiedzi poprawnych, rzadziej udziela odpowiedzi niepoprawnych, co nie jest tożsame, nie jest oczywiste, bo te modele działają w sposób niedeterministyczny, mamy efekt halucynacji, więc czasami określenie tego czym jest poprawna, czym jest niepoprawna odpowiedź jest stosunkowo trudne, no ale mamy też właśnie więcej współpracy, a ta współpraca przekłada się na to, że rzadziej usłyszymy od tego modelu, że on czegoś po prostu nie wie, Myślę, że Marcin i Tobie mi zdarzyło się uzyskać taką odpowiedź od GPT-4, co w przypadku intensywnej pracy np. nad warsztatami nie jest zbyt przyjemnym momentem, kiedy chcesz zrealizować jakieś zadanie szybko, a model tutaj wskazuje, że po prostu nie poradzi sobie z tym zadanie.

Marcin:

Dokładnie tak. Tutaj jeżeli chodzi o jakie tu mamy wartości tej poprawy, to jest około 10-15% w każdej kategorii, więc jest to zauważalne. Różnica z wartości osiągających około 20-30% zeszliśmy na około 10-20%, więc zauważalna poprawa. Jeżeli chodzi o dalsze porównania tego modelu największego Cloud 3 Opus GPT-4, to też warto odwołać się do tych benchmarków, które oczywiście mogą odbiegać od tego, jak wygląda codzienność, ale pokrywają też się z pierwszymi testami i gdzieś tam doniesieniami, jak ten model sprawdza się w praktyce. Mianowicie, Cloud 3 Opus w wielu kategoriach oferuje bardzo podobną wydajność do GPT-4. Ale są dwie kategorie, gdzie mamy zauważalną przewagę. Pierwsza z nich bardzo istotna z naszego punktu widzenia. Przemek, jest to kodowanie, programowanie, gdzie widzimy od 10% poprawę wydajności, 85% to jest Cloud 3 Opus, gdzie 75% skuteczności to jest GPT-4. A druga równie istotna, a jeżeli nawet nie bardziej istotna z punktu widzenia takiego ogólnego użytkowania, to jest benchmark Graduate Level Reasoning, no czyli gdzieś tam rozumowanie na poziomie osoby po studiach magisterskich. Tutaj Cloud 3 Opus ma 50% skuteczność, podczas GPT-4 35%, więc 15% lepiej w tym benchmarku wypadło Opus. Tak więc naprawdę fajne postępy. No i co istotne, Antropic twierdzi, że będzie w stanie jeszcze te benchmarki poprawiać w najbliższych miesiącach. Nie czują, żeby te modele były już na skraju swoich możliwości, żeby nie wiedzieli co dalej można zrobić, aby je poprawić. No więc zapowiada się, że naprawdę imponująco. Może wracając jeszcze do tych modeli Haiku i Sonnet. Czy tutaj Przemek chcesz się o nich trochę wypowiedzieć? Jakie one mają use case’y? Czego możemy oczekiwać po tych dwóch mniejszych modelach, które jak już wspominałem są naprawdę tanie i myślę, że wiele osób będzie zainteresowanych use case’ami gdzieś tam we własnych aplikacjach tak naprawdę.

Przemek:

Zdecydowanie tak, ja myślę, że to jest zdecydowanie temat warty poruszenia. My już w poprzednich odcinkach mówiliśmy o tym, że w przypadku budowania integracji technicznych warto tymi modelami żonglować, warto balansować pomiędzy możliwościami modelu i po prostu cennikiem, który do tego modelu jest przyklejony. No i tutaj widać, że kiedy Antropic wychodzi na rynek z nową ofertą, wychodzi z tymi trzema modelami, to on wysyła taki sygnał do użytkowników, że hej, mamy różne opcje, mamy modele potężne i drogie, mamy modele troszkę mniej potężne i tanie i teraz od ciebie zależy z którym modelem postanowisz pracować. Więc mamy model Haiku, który jest najmniejszy, który jest jednak najbardziej efektywny kosztowo w swojej kategorii jeśli chodzi o możliwości, jeśli chodzi o ten poziom w cudzysłowie inteligencji. No i tutaj jeśli mamy takie scenariusze jak właśnie Prosta analiza tekstu, jeśli mamy małe źródła danych, chcemy przetłumaczyć jakiś fragment tekstu, chcemy wygenerować jakiś tekst, który nie dotyczy dużego, złożonego planowania, wyciągania wniosków, to ten Haiku na pewno się sprawdzi. Mamy ten model pośredni, czyli Sonnet, który jest dwa razy szybszy od poprzedników, od Clouda 2 i Cloud w wersji 2.1. No i tutaj mamy już bardziej złożone zadania, które nie są jeszcze tym, co możemy realizować przy pomocy opusa, ale są już zdecydowanie bardziej zaawansowane niż to, co możemy realizować przy pomocy np. haiku. No i tutaj mówimy np. o wyciąganiu informacji z jakichś konkretnych źródeł, tutaj mamy React, czyli Retrieval Augmented Generation, gdzie mamy jakieś dane wejściowe i przy ich pomocy generujemy tekst. Mamy jakieś rekomendacje produktów, prognozowanie, czyli bardziej złożone wnioskowanie, wyciąganie wniosków z jakiegoś określonego zestawu danych. Jeszcze nie na takim poziomie jak Opus, pewnie nie na takim poziomie jak GPT-4 w tej najlepszej wersji. no ale również z innym odpowiednio cennikiem, z optymalizowanym względem możliwości tego modelu. No i to jest kolejny raz taki moment, gdzie warto podkreślić, że tych modeli jest wiele i w przypadku tych naszych integracji, w przypadku tego doświadczenia, które też chcemy użytkownikom dostarczać, trzeba to mieć na uwadze, bo to nie jest tylko tak, że my sobie charakteryzujemy jakieś różne modele i mówimy, że ten jest taki, a ten jest jakiś, tylko po prostu to się przekłada na produkt, na to ile za tą integrację zapłacimy, na to czy nasi użytkownicy będą zadowoleni z tej integracji czy nie, Warto to mieć na uwadze, mamy te trzy modele. No i o tym jeszcze możemy powiedzieć, myślę teraz, myślę, że to jest dobry moment. Mamy też Cloud API, czyli możliwości technicznej integracji z tymi wszystkimi modelami, które od marca jest dostępne w 159 krajach. Możemy budować komercyjne integracje właśnie techniczne, wykorzystując te trzy modele. Wcześniej to było ograniczone jedynie do tych rynków, gdzie Cloud AI, czyli chatbot od Antropica był dostępny. Teraz API jest zdecydowanie bardziej dostępne globalnie. i możemy po prostu z tego korzystać, budując konkretne rozwiązania komercyjne.

Marcin:

Tak, więc mamy dostęp do Cloud App już w Polsce, co jest świetne. Niestety cały czas nie mamy dostępu do wspomnianego Cloud AI, czyli tego interfejsu graficznego przypominającego czata GPT. On w Polsce cały czas nie jest dostępny, ale jak już też wspominaliśmy, jest gdzieś tam workaround. Możemy za pośrednictwem Amazon Bedrock uzyskać dostęp do tych modeli. w formie interfejsu graficznego, więc jeżeli chcesz sobie te modele przetestować, no to Amazon Bird Dog jest miejscem, w których powinieneś gdzieś tam ich szukać. Co o czym jeszcze warto wspomnieć, to każdy z tych modeli naprawdę świetnie sobie radzi z multimodalnością pod postacią obrazów, świetnie analizują obrazy na poziomie gdzieś tam tak naprawdę takim samym, które oferuje GPT-4V oraz Gemini Ultra, co jest absolutnie świetne. Możemy analizować wykresy. Pojawił się też fajny use case analizy instrukcji z Ikei, jeżeli kiedykolwiek gdzieś tam przeklinałeś pod nosem składając meble, no to jest szansa, że już tak nie będzie i modele Cloud 3 mogą Ci tutaj pomóc. Widziałem na Twitterze bardzo fajny gdzieś tam case study tego jak właśnie modele Cloud mogą tutaj pomóc. Co też istotne mówiliśmy o wyciąganiu wiedzy z różnych źródeł, że te modele również sobie z tym bardzo dobrze radzą, operują na 200 tysiącach tokenów. to też niedługo Antropic twierdzi, że będzie funkcja cytowania, gdzie modele będą wprost wskazywały z jakiego miejsca w tej naszej bazie wiedzy, w danym dokumencie, informacja pochodzi, dzięki czemu będziemy mogli szybciej zweryfikować, czy doszło do halucynacji, czy też nie, co jest bardzo istotne, bo wiemy, korzystając z GPT-4, np. z custom GPT, obecnie tego tak naprawdę do końca nie widzimy i musimy na siebie brać ciężar albo posiadania wiedzy na temat zawartości dokumentu, żeby móc to szybko zweryfikować samodzielnie. albo przeglądania tegoż dokumentu. Takie cytowanie to jest coś, co na pewno wniesie wartość i podniesie zaufanie do tego, jak współpraca z modelem wygląda. Może Przemek wspomnisz, jak wygląda kwestia bezpieczeństwa, bo tutaj po raz kolejny wzrasta wydajność, co oczywiście może budzić jakieś obawy, wątpliwości, czy my cały czas jesteśmy bezpieczni, czy musimy się przygotowywać na jakąś kolokwialną inbe.

Przemek:

Zanim wejdę w temat bezpieczeństwa to jeszcze mała dygresja. Dosłownie wczoraj OpenAI opublikował też nowość w samym czacie GPT a propos cytowania źródeł. O ile wcześniej te źródła były cytowane przy pomocy ikonki to teraz mamy już widzieć pełną nazwę publikacji, pełną nazwę źródła. To też w kontekście Clouda i w kontekście właśnie informowania użytkowników skąd ta wiedza tak naprawdę pochodzi. robi różnicę, OpenAI wie, że ten temat datasetów, nauki modeli językowych jest tematem dość kontrowersyjnym, więc myślę, że takie usprawnienia będziemy oglądać w poszczególnych usługach, będzie to jeden z bardziej powszechnych improvementów. Natomiast jeśli chodzi o samobezpieczeństwo, to w kontekście Antropica na pewno Trzeba wspomnieć o tym, że jest to firma, która bardzo proaktywnie podchodzi do całego tematu. Oni zdają sobie sprawę o jakim potencjale tych rozwiązań mówimy. Jest to firma, która jakiś czas temu opublikowała dokument można powiedzieć w formie takiej konstytucji AI i tego jak oni chcą podchodzić do rozwoju sztucznej inteligencji, jak to balansowanie pomiędzy technikami i miarami zapewnienia bezpieczeństwa powinno być odwzorowane względem możliwości tych modeli i również oni wspominają o tym w kontekście premiery Cloud’a trójki. Na czym ta konstytucja polega albo do czego ona tak naprawdę się sprowadza? No tutaj Antropic, myśląc długoterminowo, definiuje takie cztery poziomy ryzyka i cztery poziomy zapewnienia bezpieczeństwa, które odpowiadają możliwościom modeli językowych, które mamy na rynku. No i te poziomy zwane AI safety levels rozciągają się od ASL 1 do ASL 4 i tutaj kilka informacji a propos każdego tego poziomu. ASL 1 i ASL 2 To są takie techniki, takie sposoby zapewnienia bezpieczeństwa, które wdrażane są już dzisiaj. Mamy Red Steaming, mamy Canary Release, mamy wdrożenia dla mniejszej liczby klientów, mamy feedback, który jest uzyskiwany od użytkowników. To są takie techniki, takie sposoby zapewnienia bezpieczeństwa, które według Antropica odpowiadają po prostu obecnym możliwościom tych modeli. Firma wskazuje, że jej zdaniem na dzisiaj nie ma jeszcze pełnego zagrożenia tym, że te modele uzyskają pełną świadomość, niezależność, trzeba będzie te przysłowiową wtyczkę odłączyć, chociaż chyba nie ma przysłowia z wtyczką. Natomiast mamy jeszcze te dwa pozostałe poziomy bezpieczeństwa, o których Antropik również wspomina. I one mają dotyczyć przyszłych wersji modeli językowych. Takich, które czujemy, że nadchodzą. My też o nich mówimy. Już pewnie też myślę, że wielu z nas ma gęsią skórkę jak tutaj pada GPT-5 albo GPT-6. Natomiast jeszcze ich nie ma, ale Antropic mówi, że są świadomi, że te modele o dużym potencjale prawdopodobnie się pojawią. i w konstytucji AI piszą o tym, że będzie trzeba prawdopodobnie stosować zupełnie inne metody i techniki zapewnienia tego bezpieczeństwa, łącznie z tym, że te modele po prostu nie będą publikowane przez dłuższy czas, co jest jakby taką zmianą jeśli chodzi o takie agresywne publikowanie tych wszystkich modeli, agresywną konkurencję względem innych firm na rynku. ASL-3, czyli ten poziom zapewnienia bezpieczeństwa, który jest przed nami, nie dotyczy jeszcze obecnych modeli, ale już jest gdzieś tam z tyłu głowy, jeśli chodzi o leadership tej firmy. No i mamy jeszcze ASL-4, który Antropic mówi, że jest na poziomie takim spekulacyjnym, nie wiadomo czy tak naprawdę dojdziemy do modeli, które mają taki w pełni autonomiczny potencjał do pracowania, działania, istnienia powiedzmy w naszym zastępstwie. Jest to jakiś temat long term, on jest również w tej konstytucji AI, natomiast jeszcze dzisiaj nie jest tak naprawdę opisany i Antropic również mówi, że na razie to jest taki placeholder, jeśli dojdziemy do tego poziomu ASL 3, to zaczniemy myśleć o ASL 4. Ale jakby podsumowując cały ten temat, no widać, że Dla Antropica temat bezpieczeństwa jest ważny, zawsze kiedy dowiadujemy się o jakimś nowym modelu to ta konstytucja EIA jest przywoływana, co też trzeba wspomnieć nie zawsze jest tym co widzimy w przypadku innych firm. W przypadku Antropica na pewno to się dzieje i ta konstytucja EIA jest jednak tutaj wskazywana, wymieniana w tych materiałach Myślę, że to jest też coś, o czym wielu z nas chciałoby wiedzieć. Chcielibyśmy być świadomi, że te firmy po prostu o bezpieczeństwie również myślą.

Marcin:

Dokładnie tak. Jeszcze wróćmy do cennika, no bo to jest istotne dla osób, które te modele chciałyby integrować ze swoimi aplikacjami. Tu ten pricing jest stosunkowo ciekawy tak naprawdę, no bo jeżeli patrzymy na cenę Cloud 3 Opus, no to jeszcze w ramach szybkiego przypomnienia wytłumaczę jak te pricingi działają. Mamy cenę input, czyli tak naprawdę ile płacimy za nasze prompty, za to co do modelu trafia, no i potem mamy output, czyli ile płacimy za odpowiedź modelu. I jeżeli chodzi o PUSA, to ten pricing jest na podobnym poziomie jak GPT-4, ale nie w wersji Turbo, tylko w tej wersji tradycyjnej. 8000 tokenów, 32000 tokenów, z których obecnie tak naprawdę niewiele osób myślę korzysta, bo mamy do dyspozycji GPT-4 Turbo, które oferuje lepszą wydachność i niższą cenę tak naprawdę. Musimy pamiętać, że Opus ma tych tokenów znacznie więcej do dyspozycji, bo aż 200 tysięcy, ale w przypadku Turbo mamy 128 tysięcy. Myślę, że w wielu use case’ach to nie będzie krytyczne. No a jednak jakby nie patrzeć, GPT-4 Turbo jest prawie o połowę tańsze. No więc tutaj ta różnica w cenie jest zauważalna. Myślę, że Antropic teraz będzie wiele robiło, aby tą cenę opusa obniżyć, aby po prostu była ona tożsama z GPT-4 Turbo, z którą bezpośrednio konkuruje. Za to, jeżeli spojrzymy sobie na Sonnet i Haiku, to tu sytuacja jest dokładnie odwrotna, bo tutaj ceny są bardzo atrakcyjne. No bo mówimy o 3 dolarach inputu jeżeli chodzi o Sonnet i 0.25 dolara jeżeli chodzi o Haiku. Mówimy o milionie tokenów tego inputu, bo w takich teraz wartościach te ceny pricingowe się głównie I to są ceny, które są kilkukrotnie niższe od GPT-4 Turbo. Nawet można mówić o dziesięciokrotnie niższej cenie. A jak wspominaliśmy na Chatbot Arena, to są modele, które W takich testach Double Blind wypadają w bardzo podobny sposób do GPT-4, no więc niesamowicie niskie ceny tak naprawdę. Co mogę powiedzieć? Myślę, że wielu programistów, w tym my, będą się decydowali na korzystanie właśnie z Troneta albo Haiku w swoich aplikacjach, no bo niesamowita wydajność, możliwość przede wszystkim korzystania z multimodalności, której w GPT-3.5 Turbo w ogóle nie ma tak naprawdę, a to był ten taki tani model, który do wielu aplikacji trafiał i zajmował się wieloma zadaniami, które nie wymagają wysokiego intelektu. Teraz mamy wysoki intelekt, mamy możliwość analizy obrazów i jeszcze mamy ceny znacznie niższe od GPT-4. Co ja bym się tutaj spodziewał jako odpowiedź OpenAI, o której będziemy mówili w przyszłym miesiącu, to radykalnej obniżki cen. albo po prostu zaoferowanie jakichś nowych usprawnień, np. pod postacią GPT 4.5, o którym pogłoski już gdzieś tam chodzą w różnych miejscach. Ludzie wyłapują na poziomie bloga OpenAI jakieś ukryte posty, czy też jakieś wycieki w API. Widać, że coś jakby jest na rzeczy, no i bardzo możliwe, że coś takiego właśnie otrzymamy jako Odpowiedź o OpenAI w połączeniu zapewne jak to zwykle w przypadku OpenAI bywa. Dostajemy nowy produkt, coś nowego do dyspozycji i jednocześnie radykalną obniżkę cen tego co już do dyspozycji było. Tego bym się spodziewał na bazie tej intuicji, którą nabyłem przez ostatni rok. Zobaczymy czy tak faktycznie. No i może Przemek na końcu tego naszego segmentu Antropiku opowiedz co dalej, czego się możemy dalej spodziewać i też co do dyspozycji tak naprawdę Antropik będzie miało w nadchodzącym roku, w nadchodzących latach za sprawą inwestycji od Amazona.

Przemek:

No właśnie, chciałbym jakoś kreatywnie odpowiedzieć na to twoje pytanie, ale odpowiedź będzie stosunkowo bezpośrednia. Oni będą mieć po prostu pieniądze i tych pieniędzy im nie zabraknie. Pieniądze wynikają z wielu rund inwestycji, między innymi z dwóch rund od Amazona w wysokości około 4 łącznie miliardów dolarów realizowanych w dwóch rundach. W ciągu ostatniego roku Antropic był firmą, która uzbierała aż 7 miliardów dolarów, więc mówimy tutaj naprawdę o takich rundach finansowania, które robią wrażenie. A w kontekście całego AI to można powiedzieć, że to jest praktycznie jedna trzecia tych dużych rund inwestycyjnych, bo w 2023 roku mieliśmy 24 miliardy dolarów zainwestowane w cały ten rynek, o 20 miliardów dolarów więcej niż w 2022 roku. No i tak naprawdę na rynku zostaje trzech dużych, naprawdę dużych graczy OpenAI, Antropic i Google. Ja tutaj jeszcze nawiązałbym do tej dostępności, o której ty powiedziałeś i do tego, że my sami chcemy tego cloudę testować. Faktycznie myślę, że tutaj ogromną zmianą jest ta dostępność tego modelu, chociażby na poziomie API. No bo wcześniej, jeśli chodzi o Cloud AI, mieliśmy VPN-a, mogliśmy tam przez serwery w Stanach Zjednoczonych próbować zakładać konta itd., itd. Ale myślę, że ani ja, ani ty, no po prostu w codziennej pracy byśmy się na to nie decydowali, nie chce nam się konfigurować VPN-ów, nie chce nam się szukać haseł itd., itd. I podobnie było z API, jeśli API było ograniczone do kilku konkretnych regionów, no to również można było jakoś tam delikatnie naginać tę politykę prywatności, ale też nie był to taki model współpracy, o jaki by nam chodziło. Natomiast teraz myślę, że naprawdę mamy pełnoprawną alternatywę do GPT-4, do API Open AI, co w przypadku tej konkretnej firmy jest myślę, że dużą zmianą, jeśli chodzi o taką percepcję firm na rynku. i sprawy tak naprawdę zaczynają wyglądać ciekawie. Ja jeszcze w tym tygodniu dosłownie widziałem tweeta, gdzie ktoś wspomina jak jest to powszechne rozumienie tego czym jest sztuczna inteligencja na podstawie keywordów, które ludzie wyszukiwają w Google. No to tam jest tak naprawdę chat GPT i długo długo nic, bo tak naprawdę alternatywy do czata GPT były ciekawostkami, o których mówili pasjonaci w podcastach, autorzy na blog postach i tak dalej i tak dalej. Natomiast teraz mamy dostępność modeli, mamy pełną dostępność API, mamy duże możliwości, mamy konkurencję do GPT-4. No i myślę, że w naszym przypadku to też będzie takie rozdwojenie jaźni w przypadku każdej integracji, z którego modelu korzystać. Wcześniej mieliśmy default w postaci GPT-4, a teraz to już niekoniecznie będzie po prostu prawda.

Marcin:

Dokładnie tak i myślę, że co nam pozostało to pogratulować Antropikowi świetnego release’u, świetna robota. Raz jeszcze poprzeczka idzie do góry. Zobaczymy jak odpowie na to konkurencja. Teraz przejdźmy do drugiego głośnego tematu, tak naprawdę głośniejszego. Trochę szkoda tak naprawdę, no bo tutaj mamy faktyczne innowacje. Teraz pogadajmy właśnie o tym, czy mamy do czynienia z innowacją.

Przemek:

Mocno stwierdzone.

Marcin:

Haha, jak zawsze w moim stylu. Teraz pogadamy sobie o Devinie, czyli rzekomym pierwszym AI Software Engineerze, który na Twitterze zrobił prawdziwą burzę. W moich oczach niestety dość dużo ludzi się skompromitowało trochę w swoich reakcjach na ten relist, ale pogadajmy. czym ten DEWIN jest i o co tak naprawdę chodzi. DEWIN jest to autonomiczny agent, czyli model LLM, który nie tylko służy nam jako konwersant i jako rozwiązanie, które odpowiada na nasze Byt, który ma sprawczość, który podejmuje decyzje, który wykonuje określone zadania. W tym przypadku są to zadania programistyczne. Devi ma do dyspozycji własnego Shella, własny editor kodu, własną przeglądarkę. i tym oto sposobem realizuje zadania tak jak programiści w firmach. Firma Cognition AI 12 marca podzieliła się właśnie tym rozwiązaniem, pokazała kilka demek i również co było taką najważniejszą informacją, no to Devin znacznie lepiej wypada w bardzo ważnym z tego punktu widzenia benchmarku, czyli SWE Bench, który bada umiejętność rozwiązywania issuesów z GitHuba w projektach open source, czyli mamy jakiś problem, mamy jakiegoś buga, mamy jakiś nowy feature do dodania w projekcie i sprawdzamy jak te modele czy też agenci sobie radzą z rozwiązywaniem tego typu problemów. No i tutaj Devin zdecydowanie pobił konkurencję, bo w niemal 14% przypadków sobie faktycznie radzi z rozwiązywaniem jakichś issues’ów, podczas gdy poprzednia gdzieś tam konkurencja State of the Art, no czyli tak naprawdę mówimy o GPT-4 i jakichś jego różnych wariantach, no to była skuteczna zaledwie poziomie 2%, jeżeli te rozwiązania działały samodzielnie, a jeżeli miały asystę No to było to 5%. Tutaj również Cognition AI za pośrednictwem DEMA twierdziło, że to ich rozwiązanie, znaczy nie twierdziło, tylko pokazali, że tak faktycznie jest. Jest w stanie brać jakieś zlecenia z Upworka i faktycznie je realizować. Uczyć się też na własnych błędach. poznawać nowe technologie i tak dalej i tak dalej. No i to oczywiście wywołało bardzo dużą gdzieś tam falę zdziwienia, zaskoczenia, strachu na Twitterze wśród programistów. Wielu influencerów moim zdaniem się skompromitowało pisząc, że to już jest koniec naszej pracy i tak dalej i tak dalej. Bardzo, bardzo nie lubię tego typu wypowiedzi. Już wielokrotnie gdzieś tam ten sentyment wyrażałem w tym podcaście. Moim zdaniem trzeba być nie dość, że po prostu uważnym obserwując tego typu relisy, tego typu dema. No jeżeli ktoś jest doświadczony, no to wie, że zarówno gdzieś tam w siecie programowania często dostajemy świetne dema, rozwiązań, które potem się nie sprawdzają na produkcji. No a w przypadku AI, gdzie jest jeszcze więcej gdzieś tam okazji do zbierania hype’u i do zbierania pieniędzy ze strony inwestorów, no to tym bardziej trzeba gdzieś tam być sceptycznym do tego typu zapowiedzi. No ale wielu gdzieś tam znanych influencerów dzieliło się tweetami, że to już koniec i tak dalej i tak dalej. Zastanawiam się ile osób będących na studiach albo będących juniorami, którzy te osoby śledzą, zrezygnowało gdzieś tam z rozwoju jako programista. Pozostało przyklasnąć. To wszystko podchwyciły również media. Pojawiło się bardzo dużo clickbaitowych artykułów, że mamy Devina, który już po prostu zastępuje programistów. realizuje całe projekty. odgroma tego typu artykułów. Dziennikarzom jestem w stanie wybaczyć tak naprawdę tego typu ochybienia, no bo nie dość, że się na tym nie znają, no to jeszcze są w branży, która gdzieś tam powoli umiera i każdy clickbaitowy artykuł to jest szansa, żeby zostać kilka miesięcy dłużej w swojej pracy i zarobić jakiekolwiek pieniądze, no więc tutaj jakby jeszcze powiedzmy, to jakby, no wobec programistów oczekiwałbym czegoś więcej. No i może Przemek jeszcze opowiedz tak naprawdę, jak na to patrzeć w sposób rozsądny.

Przemek:

Ja powiem tak, przede wszystkim żeby tutaj ustawić te oczekiwania poprawnie, no to z ręką na sercu muszę przyznać i myślę, że ten Marcin też, że my cały czas jesteśmy na waitliście tego narzędzia. Nie mamy stricte dostępu do DeWina, jakby opieramy się na tych opiniach i filmach, które pojawiają się na blogu. Natomiast myślę, że jest to o tyle interesujące jakby odkładając te wszystkie clickbaity i ten szum informacyjny na bok, że patrząc po tych prezentacjach Devina można sobie wyobrazić jak budować w ogóle aplikacje z wykorzystaniem wielkich modeli językowych, jak te modele mogą planować, jak te modele mogą rozwiązywać poszczególne zadania. I tutaj chciałbym jeszcze wrócić do samego tego opisu tego narzędzia, bo myślę, że wiele osób nas słucha. Jesteśmy właśnie na ścieżce audio, jesteśmy tutaj prowadzącymi podcast, więc nie każdy musi sobie od razu wyobrazić, czym jest taki autonomiczny agent, więc dwa słowa o tym, bo potem można łatwiej przejść też do wyciągania wniosków a propos tego, czym to narzędzie jest. No więc jeśli korzystamy z Devina, to tak naprawdę mamy uruchomiony jakiś workspace, jakieś środowisko programistyczne, tak jakbyśmy mieli uruchomiony edytor kodu, tylko, że zamiast plików tekstowych mamy właśnie te cztery sekcje, o których ty Marcin powiedziałeś. Mamy jakieś pole do prowadzenia konwersacji z modelem, Mamy przeglądarkę, gdzie widzimy na co ten model patrzy, na jakie strony wchodzi, co z tych stron pobiera. Mamy fragment konsoli, gdzie model również może wykonywać poszczególne zadania. No i mamy też pliki z kodem. No i Devin jako ten autonomiczny agent ma za zadanie poruszać się po tych wszystkich powiedzmy w wymiarach pracy nad projektami programistycznymi, żeby osiągać określone rezultaty. I dla mnie, powiem Ci szczerze, najbardziej interesujące na razie jest obserwowanie zachowania DeWina, nie przechodząc do zbyt tutaj pochopnych wniosków. To znaczy, ja nie wiem, jak dobre to jest, widzę te opinie, widzę te statystyki, ale naprawdę interesująco to wygląda. Szczególnie z tego powodu, że w wielu prezentacjach pojawia się ten etap planowania, co znowu jest takim sygnałem dla nas, dla osób, które chcą z tymi modelami pracować w bardziej skuteczny sposób. Jak w zasadzie zadawać zadania, zadawać jakieś polecenia tym modelom, żeby uzyskiwać najlepsze odpowiedzi. I w przypadku DeWina na tych prezentacjach widać, Kiedy damy mu jakieś zadanie, to on nie przechodzi automatycznie do pisania kodu, nie pobiera repozytorium, tylko robi sobie plan akcji, robi sobie checkboxy, plan działania i następnie ten plan próbuje realizować. I myślę, że to jest ogromna wskazówka dla wszystkich, którzy chcą po prostu otrzymywać lepsze wyniki z modeli. To znaczy, jeśli widzimy, że firma robiąca dany produkt robi coś takiego, to kurczę, pewnie my też powinniśmy robić coś takiego. Nie powinniśmy traktować tych narzędzi jako wyszukiwarkę Google, gdzie tam zapytam o ten słynny wiek Adama Małysza, czy tam cokolwiek innego, kto był siódmym prezydentem Stanów Zjednoczonych. Ale zapytam o jakiś plan, zastosuję tę metodę sokratejską, którą ty Marcin bardzo mocno promujesz, czyli wejdę w taką dwustronną konwersację z tym modelem i dopiero powoli, powoli, krok po kroku będę się starał gdzieś tam przechodzić w kierunku uzyskiwania określonych wyników z tego narzędzia. I myślę, że dla mnie osobiście to jest najciekawszy element jeśli chodzi o DeWina. Bo tak jak mówię, jesteśmy na waitliście, pewnie potrzebowalibyśmy troszkę czasu, żeby realnie ocenić możliwości tego narzędzia, ale naprawdę sporo można wyciągnąć, obserwując to, jak, że komu to narzędzie ma działać. Oczywiście, jako już tutaj pełnoprawny użytkownicy Copilota i GPT-4 wiemy, że między zapowiedziami i notatkami marketingowymi, a realnymi use case’ami jest przepaść, jest ogromna różnica, naprawdę trzeba wygrzać to narzędzie, trzeba go przetestować we własnym kontekście. I tutaj jeszcze do takich ostatecznych wniosków to myślę, że jeszcze chwilkę bym się wstrzymał. Natomiast zgadzam się z Tobą, patrząc po tych nagłówkach, które tutaj też mamy przygotowane w notatkach do nagrania. Często to jest po prostu kompromitacja. Pierwszy z brzegu nagłówek, AI Software Engineer koduje cały projekt z jednego prompta. No po prostu wiemy, że to się nie wydarzy, wiemy, że to nie działa w ten sposób, wiemy, że projekty to nie są trzy pliki, które gdzieś tam na końcu mają wyświetlić jakiegoś diwa, wiemy, że prawdziwe komercyjne projekty to jest zdecydowanie większa złożoność, trudniejsze problemy, nieoczywiste zapytania itd., itd., więc jest jakaś taka próba przetłumaczenia tego, czym te agenty mają być dla powiedzmy tego Janka Kowalskiego, który sobie czyta te portale, ale myślę, że jak słuchacie naszego podcastu, to chcecie trochę innego spojrzenia i tutaj uspokajamy. Obserwować warto, testować warto, natomiast jakby to nie jest rewolucja z dnia na dzień. Nie straciliśmy pracy i myślę, że jeszcze chwilka czasu minie, zanim potencjalnie ta praca będzie zagrożona.

Marcin:

Oczywiście, mamy do czynienia ze skutecznością na poziomie 1 na 7 GitHub Issues. To jest gdzieś tam wydajność, której się możemy spodziewać po albo bardzo wczesnym juniorze, albo tak naprawdę i mniej. Nie czuję tutaj zagrożenia jakiegokolwiek dla inżynierów z doświadczeniem i tych niedoświadczonych również, no bo musimy pamiętać, że z człowiekiem łatwiej się skomunikować. Człowiek też może tak naprawdę mniej nabroić niż taki autonomiczny agent, który samodzielnie podejmuje decyzje. i też w ostatecznym rozrachunku wcale może nie być dużo droższy od takiego agenta, który może nam ładnie nastukać koszta, bo tych tokenów trzeba dużo, tych zapytań do API trzeba dużo, żeby taki model mógł działać. Tutaj oczywiście Cognition AI nic nie podawało co do cennika, jaki jest tutaj pricing tego, realizacji tych zadań, tylko pochwaliło się, że w ogóle to jakkolwiek działa jeszcze w ściśle wybranych przez nich środowisku. Jeżeli chodzi o seniorów, regularów, no to tutaj spodziewałbym się skuteczności 100 na 100, jeżeli chodzi o realizację GitHub Issues. Też oczywiście nie do końca wiemy, jaki jest proces wyboru tych GitHub Issues. Różnie to bywa i tak dalej, i tak dalej. Więc tutaj spokojna głowa, raz jeszcze chciałbym uspokoić, bo naprawdę dużo było niepotrzebnego szumu i wydaje mi się, że fajną analizę, którą też mamy tutaj przygotowaną, zaproponował Gergely Orosz z Pragmatic Engineera. Jak na to patrzeć w taki sposób bardziej systemowy, analityczny i mając też na uwadze trochę większy przedział czasowy niż ostatnie dwa lata i cały szum związany z AI. Bo koniec gdzieś tam software engineeringu już był zapowiadany jeszcze zanim ten software engineering tak naprawdę się rozkręcił, czyli w latach 60-tych ubiegłego wieku. Tutaj fajnie Dżedżeli Oros przywołał backstory języka kobol, z którego on obecnie jest memem, jako jakiś archaiczny język, z którego nikt nie korzysta, no to on został wynaleziony przez Grace Hopper, aby właśnie sprawić, żeby programiści nie byli potrzebni, tylko ludzie z gdzieś tam backgroundu biznesowego byli w stanie programować samodzielnie. Czy tak się faktycznie stało? Spoiler Alert nie. Zobaczymy, czy tak też będzie, ale Przemek, rzuć tutaj więcej światła. Jak możemy patrzeć na tę całą sytuację? Co tutaj Georgili Orosz zauważył? Czy ty w ogóle się zgadzasz z tą analizą? Bo ona w moich oczach jest bardzo rzeczowa i trafna tak naprawdę.

Przemek:

Myślę, że rozpoczynamy te nasze obserwacje podobnie, to znaczy ja przed chwilą powiedziałem, że na razie obserwujemy prezentację i Guerilla Oroch też mówi, że obserwujemy prezentację, mamy jakieś demka, mamy kilka osób z dostępem do tego narzędzia, więc na początku wydaje mi się, że jest takie ustawienie oczekiwań zdecydowanie niżej niż jakby te głośne nagłówki wskazują. Pan Oroch to jest osoba, która też w dużych firmach pracowała, pracowała z zespołami programistycznymi, więc ona wie czym to programowanie tak naprawdę jest. I to jest bardzo taka pragmatyczna ocena. Gergely Orosz tutaj wspomina, że mamy już na dzisiaj takiego asystenta, który nazywa się GitHub Copilot, który już dzisiaj zmienia to, jak wygląda praca programisty. Natomiast to też nie jest ani oczywista zmiana z punktu widzenia produktywności, ani oczywisty gain, jeśli chodzi o korzyści biznesowe dla firmy, która stoi za takim produktem. Tutaj mówi się, że Copilot kosztuje więcej niż tak naprawdę wynosi ta cena subskrypcji. Kosztuje więcej Microsoft, który za tym Copilotem stoi niż kosztuje ta cena subskrypcji, więc jest to na pewno duża inwestycja w przyszłość. Microsoft pozycjonuje się po prostu jako autor takich rozwiązań. Niekoniecznie, żeby od pierwszego dnia tutaj zyskiwać benefity, uzyskiwać jakieś profity, ale żeby po prostu być na urządzeniach programistów. To jest taka strategia, którą widać w przypadku Microsoftu. Ja tę wypowiedź Gergolego Orosza widzę tak, że czas pokaże. Ani nie jest to oczywiste jeśli chodzi o produktywność, ani nie jest to oczywiste jeśli chodzi o profity pod kątem firmy, ani historia wcale nie pokazuje, To jest pierwsza sytuacja, kiedy programiście mielibyśmy pozbawienie pracy przez wejście na jakiś wyższy poziom abstrakcji. I chyba możemy to sprowadzić do czegoś takiego, że łatwiej będzie się o tym mówić, jeśli faktycznie zobaczymy w dużej skali wdrożenie tego DeWina i zobaczymy po prostu, jak to narzędzie zmienia tę pracę. Byliśmy w tej sytuacji wiele razy w podcaście o Panu AI, gdzie mamy jakiś blog post, mamy prezentację AutoGPT, o którym Ty wspominałeś w ostatnim odcinku. No i tak naprawdę potem następowała cisza, więc poczekajmy. Ja myślę, że to jest tutaj dobra decyzja, wcale nie taka powiedzmy spowolniona, czy jakaś zbyt bezpieczna, zbyt defensywna.

Marcin:

Zdecydowanie. No tutaj na co też Orosz wskazywał, no to ta cała gdzieś tam retoryka, narracja wokół Devina może nie wynikać z tego, że to narzędzie tak bardzo różni się od Copilota, którego znamy i gdzieś tam wiemy, do czego jest on zdolny. Nie wynika z tego, że to rozwiązanie jest jakieś skrajnie inne i ma znacznie wyższe możliwości, tylko to jest celowe pozycjonowanie się w innej kategorii produktu, no bo gdzieś tam ta kategoria asystentów kodowania takich gdzieś tam w naszych edytorach jest już stosunkowo rozporządkowana. Dokładnie, mamy GitHub’a Copilot’a, który jest zdecydowanym liderem, mamy też jakiś gdzieś tam contentnik rozwiązania, kursory, kodi i tak dalej, i tak dalej. Tam już naprawdę dużo się dzieje, dużo kasy już z VC też zostało w ten sposób wyciągnięte. no to możemy stworzyć osobną kategorię. No to powiedzmy nie, że będziemy pomagali programistom kodować, tylko zastąpimy tych programistów. Na pewno się znajdzie kilku panów w dolinie krzymowej, którzy by chcieli na takie cele przeznaczyć swoje pieniądze. No bo oczywiście programiści są najzwyczajniej w świecie drodzy, więc z punktu widzenia biznesowego, co może być lepsze dla biznesów technologicznych niż pozbycie się tych programistów? No i tutaj oczywiście jest to okazja, żeby zrobić fajną prezentację i jakoś zachęcić inwestorów do inwestowania właśnie w Cognition AI, a nie w Microsoft bądź jego bezpośrednich konkurentów z kategorii generowania kodu właśnie. Moim zdaniem to jest dość ciekawy punkt, ciekawy sposób patrzenia na tę sprawę. Oczywiście czas pokaże, nie da się ukryć, że Temat agentów jest tematem gorącym już od roku. Wszyscy się czekają na tych agentów. Wszyscy się spodziewają, że to AI będzie latało po internecie i realizowało różne zadania. Ja osobiście uważam, że znacznie szybciej doczekamy się funkcjonalnych agentów z zakresu obsługi klienta, automatyzacji sprzedaży, automatyzacji marketingu. To są znacznie prostsze zadania niż software engineering, który wymaga zarządzania dużej ilości złożoności i zrozumienia dużej ilości kontekstu. Ja bym pierw poczekał na właśnie jakichś fajnych, faktycznie użytecznych agentów sprzedażowych, marketingowych z Customer Support i myślę, że jeszcze będzie też trzeba trochę poczekać, aż doczekamy się faktycznie funkcjonalnych, użytecznych agentów typu programista. Czas pokaże, może się mylę. Jeżeli też chodzi właśnie o takie podejście do tych autonomicznych agentów, to myślę, bardzo fajną robotę robi Adam Overment, którego znamy i który ostatnio dzielił się swoim rozwiązaniem Alice. No i agent Adama pomaga w codziennej pracy, pomaga w automatyzacjach, pomaga w kontakcie z ekosystemem naszych aplikacji na komputerze, uprzyjemnia tak naprawdę nam pracę. Będąc zupełnie szczerym, bardziej oszczędza nam kilka do kilkunastu kliknięć i wykonywania jakichś tam prostych, żmudnych zadań, a nie ma zastąpić nas w pracy programisty. Obecnie gdzieś tam na takim poziomie bym trzymał te oczekiwania względem agentów, bo tutaj bottleneckiem tak naprawdę nie jest to kto tam pracuje nad tym projektem, tylko Te LLM-y, które zasilają tych agentów, to ile one kosztują, jakie one realnie mają możliwości, to naprawdę tutaj musimy się doczekać prawdziwych postępów, prawdziwych być może GPT-5, o którym się dużo mówi w kontekście agentów właśnie, będzie takim dużym postępem, będzie takim dużym leapem, gdzie ci agenci po prostu z zabawek, które mogą pomagać nam w codziennej pracy, uprzyjemniać nam kontakt z komputerem, staną się czymś, co może samodzielnie realizować zadania, za które obecnie płacimy ludziom pensje itd.

Przemek:

Ja bym powiedział, że jest jeszcze jedna rzecz, na którą musimy poczekać, a mianowicie to jest ten aspekt świata rzeczywistego i tłumaczenie bardzo ogólnych, często niesprecyzowanych wymagań, oczekiwań względem software’u na konkretny kawałek kodu, bo myślę, że tego nie rozwiążemy tak szybko, jak mogłoby się wydawać. Widzimy, że LLM’y realizują reasoning w jakimś stopniu, często ten stopień robi wrażenie, Ale planowanie projektów, przygotowanie się do projektów to jest bardzo chaotyczny proces często. To są randomowe spotkania, randomowe osoby udzielające randomowych opinii. Każda z tych opinii jest przedstawiana w taki sposób, jakby była najważniejsza. No i koniec końców najlepsi produkt inżynierowie, najlepsi menedżerowie są w stanie jakby filtrować te wszystkie informacje, a nie przyjmować je za pewnik. No i myślę, że tu jest taki tak naprawdę złoty gral tego, jak od jakiegoś luźnego pomysłu będziemy przechodzić do prawdziwych, komercyjnych projektów. I chyba to jest jeszcze taka warstwa, w której nawet sam Devin jakby w ogóle nie próbuje tutaj rywalizować, bo to jest po prostu taki real life challenge.

Marcin:

Zupełnie tak właśnie to miałem na myśli, mówiąc o tych bottleneckach na poziomie LLM-ów, które ogólnie są dość podatne na sugestie. Jeżeli przedstawisz im opinię w sposób zdecydowany, to one raczej idą dalej z tym, z czego ty wyszedłeś. Nie są w stanie ci powiedzieć, ej gościu, tu się mylisz, tu masz taki bajas. A tak w ogóle to ja sądzę inaczej, bo zebrałem opinie, zrobiłem trzy ankiety itd. A tak powstają produkty. To nie jest po prostu kodzenie diwów i przycisków tylko i wyłącznie. To jest tak naprawdę już gdzieś tam. Wybacz Przełku, wiesz, że rozczarowałem Ciebie i wielu słuchaczy. Tym niemniej nie na tym polega tak naprawdę wytwarzanie oprogramowania, mimo że wielu początkującym może się tak właśnie wydawać.

Przemek:

Ja tylko się odniosę do jednej opinii, a propos tego, którą widziałem ostatnio na Linkedinie, gdzie ktoś wrzucił postać, że 90% liderów uważa tworzenie software’u za aktywność tożsamą z pisaniem kodu. Nie wiem skąd pojawiała się statystyka 90%. Wydaje mi się, że to zdecydowanie mniejsza liczba. Wydaje mi się, że zdecydowanie większa grupa naszej branży jest świadoma, że nie chodzi tak naprawdę o klepanie kodu. I w przypadku Devina, jeśli zobaczymy go wdrożonego szeroko, to kolejny raz się o tym przekonamy, że to nie o klepanie kodu chodzi. I tak bym, myślę, chciał tutaj jeszcze zakończyć.

Marcin:

Jest to bardzo dobre zakończenie. Przejdźmy do tych naszych szybkich newsów ze świata AI, których mamy dla Was kilka. Pierwszym z nich jest wizyta, kolejna tak naprawdę wizyta, sama Altmana u Lexa Friedmana. Opowiedz o niej trochę Przemek, co tam się wydarzyło w tej rozmowie, dlaczego warto ją przesłuchać.

Przemek:

Warto ją przesłuchać dlatego, że za nami ten przewrót słynny pałacowy, albo słynny przewrót pałacowy, pewnie tak powinienem powiedzieć. Zmiany w zarządzie, zmiany w leadershipie, sam Altman, który odchodził i przychodził. Mamy też na pewno konkurencję, która się pojawia, na pewno Cloud, o którym mówiliśmy i to sprowokowanie OpenAI do szybszych reakcji, to wszystko powoduje, Dobrze byłoby posłuchać kogoś z OpenAI, jak na to wszystko patrzy. No i tak się okazuje, że właśnie ten sam Altman u sama Friedmana próbował na ten temat trochę światła rzucić. Jest tutaj kilka tematów, możemy, myślę, marzcie im przez to przejść. No oczywiście pojawiły się te najbardziej typowe pytania o to, co tam się właściwie wydarzyło, jak to się stało, że sam Altman przestał być tym CEO, co widział Ilya, czy Ilya widział GPT-5 i tak naprawdę postanowił tutaj zaciągnąć hamulec ręcznie. jak sam Altman patrzy na GPT-4, czy to GPT-4 robi na nim wrażenie, czy nie robi. Oczywiście były próby wyciągnięcia informacji o GPT-5, gdzie Altman był bardzo ostrożny, natomiast wspomina, że OpenAI ma w planach duże ogłoszenia w tym roku, ale oczywiście tutaj nie będzie przekazywał wszystkich szczegółów. No więc ja bym powiedział, ciekawa rozmowa, warta przesłuchania. Trochę taka jaka bym się spodziewał po szefie firmy, która jest myślę uznawana za absolutny top. Dość bezpieczna. Często myślę, że OpenAI to jest taka firma, która się chce odsłaniać przez kolejne releasy, a niekoniecznie przez podcasty. Chyba na to ta ich kultura tutaj wskazuje. Tym niemniej na pewno warto posłuchać. Myślę, że trzeba się przyzwyczaić do specyficznego sposobu wysławiania się Pana Altmana. Robotic Voice w przypadku Ilexa i sama Altmana tutaj to jest jakby to the moon, więc w komentarzach też są uwagi na ten temat, że jakby dwa roboty rozmawiają o robotach, natomiast jeśli już tutaj przyzwyczajmy się do takiej formy, to myślę, że jest to bardzo ciekawa rozmowa. Jeśli chodzi o samo OpenAI, to jeszcze tutaj z tych szybkich strzałów dodam, Mamy właśnie jeden z najnowszych, najświeższych anonsmentów a propos nowych modeli. OpenAI wspomina, że pracują nad modelem Voice Engine od dwóch lat, który to potrafi na podstawie 15 sekundowej próbki głosu i fragmentu tekstu wygenerować wiarygodną wypowiedź w określonej barwie, w określonym tonie. Natomiast tutaj ciekawostka, to był taki anonsment, który chciał przekazać, że potrafimy to robić, ale nie mamy zamiaru tego upubliczniać z wielu powodów. Pewnie ryzyko, o którym ty możesz powiedzieć, pewnie inne powody. Jest to taki sygnał dla rynku, że OpenAI też w tym właśnie siedzi. Te próbki, które są na stronie, które są na blogu można przesłuchać. Niektóre są dobre, niektóre są troszkę gorsze, ale są dostępne. Koniec końców OpenAI się wstrzymuje i tutaj też Marcin, ty często wspominasz, co może być chyba takim najważniejszym powodem tego, że takich modeli jeszcze szybko nie zobaczymy.

Marcin:

To na pewno jest kwestia nadchodzących wyborów prezydenckich w Stanach Zjednoczonych. Jest to ogromne zagrożenie dla demokracji i dla jakiejś stabilności naszego społeczeństwa. Na pewno nie jesteśmy do końca gotowi na to, żeby każdy mógł np. wygenerować sobie dowolną wypowiedź Donalda Trumpa, Joe Bidena, czy też Donalda Tuska albo Jarosława Kaczyńskiego w kontekście polskiej polityki. Trzeba też również zauważyć, że to nie jest tak, że tylko OpenAI pracuje nad tego typu rozwiązaniami, bo po części nasze rodzime Eleven Labs oferuje taki produkt i on już jest dostępny. Działa póki co tak sobie, zwłaszcza w językach, które nie są językiem angielskim. Ale na pewno, jeżeli nie ten rok, to kolejny przyniesie tutaj duże wyzwania. No bo jeżeli OpenAI już coś takiego ma i pracuje nad tym od dwóch lat, no to nie zdziwię się jak po prostu w tym roku, bądź też w kolejnym. Jakiś startup, może będzie to Eleven Labs z kolejnymi wersjami swojego produktu, bądź też inna firma zaoferuje coś, co będzie funkcjonowało naprawdę nieźle. No i to gdzieś tam spowoduje wiele wyzwań na gruncie tych deepfake’ów, które powstaną. Myślę, że rosyjskie trolle zacierają ręce, no i my tutaj w Polsce również będziemy jednym z poligonów doświadczalnych tego, jak tego typu rozwiązania będą działały, no na pewno w kontekście trwającej wojny pomiędzy Rosją a Ukrainą. Tak więc przygotowujmy się na to, że będzie ciężko. Myślę, że też warto pośledzić dobre podcasty w tematyce geopolitycznej, tak żebyśmy mieli solidną bazę, solidny fundament. na temat tego, jak sytuacja wygląda, jakie są interesy naszego państwa, jakie wyzwania przed naszym państwem stoją, żeby byle jakiś wygenerowany głos nie był w stanie tego zaburzyć i wpłynąć na nas. Żyjemy w czasach, gdzie coraz bardziej liczy się ta wiedza ogólna, krytyczne myślenie. Zresztą też to chcemy promować w naszej działalności, w tym podcaście. Do tego zachęcamy. Nie bądźmy ludźmi, którzy na widok presy Lisu De Vina spodziewają się zwolnienia w najbliższy poniedziałek z etatu programistycznego, na który pracowali przez 10 lat. Tak samo na bazie jednej wypowiedzi, którą usłyszymy na YouTubie, nie podejmujemy decyzji na temat tego, kto tu jest właściwą stroną w konflikcie rosyjsko-ukraińskim. Taka szybka dygresja. Przejdźmy może do tematów przyjemniejszych i również związanych z głosem, czyli Hume.ai. który podesłał mi w tym tygodniu Adam na naszej konwersacji facebookowej z Przemkiem. Bardzo fajne rozwiązanie powstało właśnie z tej firmy. Jest to interfejs głosowy, z którym możemy wchodzić w konwersacje. Odpalamy sobie demo.hume.ai, link będzie w opisie i zaczynamy konwersację. mówimy do tegoż modelu i on świetnie odczytuje nasze emocje. Na te emocje reaguje, odpowiada i rozpoczyna z nami konwersacje. Możemy sobie porozmawiać tak naprawdę na dowolny temat i naprawdę robi to wrażenie. Przemek też testował to rozwiązanie jeszcze przed nagraniem. No i też było widać, że dużo sprawiło mu to frajdę. Ja również kilka takich konwersacji w ostatnich dniach wszedłem z tym Hume’em i naprawdę działa to dobrze. Świetnie czyta głos, no co już jakby się do tego przyzwyczailiśmy za sprawą chata GPT, który również dobrze rozumie to, co do niego mówimy. Ale tu to rozumienie emocji też jest bardzo ciekawe. Fajnie gdzieś tam ten model podkręca, zadaje pytania, żartuje nawet. Jestem pod dużym wrażeniem. No i premiera tego demo była powiązana ze świętowaniem nowej rundy finansowania dla tej firmy. Otrzymali 50 milionów dolarów z Comcastu LG. i innych. I to rozwiązanie nazywa się EVI, czyli Empathetic Voice Interface. Pochodzi od startupu Hume. No i właśnie koncentruje się na empatii, inteligencji emocjonalnej. Chce ją wprowadzić do przestrzeni chatbotów. No i może odpowiedz Przemek, jakie mogą być praktyczne use case’y takiego rozwiązania? O co tak naprawdę w tym chodzi? No bo nie chodzi tylko o demko, o którym teraz sobie rozmawiamy i które fajnie się testuje. Co to tak naprawdę może wprowadzić do świata sztucznej inteligencji?

Przemek:

Zdecydowanie nie chodzi tylko o Demko. Wchodzi m.in. o wszystkie te sytuacje i scenariusze, gdzie oczekiwalibyśmy po prostu ludzkich reakcji z drugiej strony, z tej strony, z którą prowadzimy konwersacje. Więc jeśli np. wyobrażamy sobie terapeuta, co może być dość radykalnym przykładem, ale pojawia się on w mediach, terapeuta, który będzie z nami prowadził konwersacje i ten terapeuta będzie napędzany właśnie mocą sztucznej inteligencji, potencjałem jakichś modeli językowych, to chcielibyśmy, żeby taki terapeuta po prostu nie odpowiadał głosem robota, zawsze jednostajnym, zawsze idealnym, bez jakichkolwiek przestoi i wątpliwości. Chcielibyśmy, żeby ten terapeuta po prostu wsłuchiwał się tak, jak rzeczywisty człowiek by się wsłuchiwał w to, co do niego mówimy. Wszyscy asystenci, do których zgłaszamy jakieś problemy, agenci, obsługi klienta, agenci sprzedażowi, którzy obsługują zapytania od klientów, którzy mają problemy z naszym softwarem, którzy się spieszą, którzy po prostu nie mogą wykonać jakiegoś zadania, mogą być również napędzani przez tego typu rozwiązania. Ja sobie też przypomniałem, jak o tym rozmawiamy, o FIGURE, czyli tym startupie, o którym mówiliśmy ostatnio, który tworzy humanoidalne roboty, który również demował swojego robota właśnie w tym kontekście. Ten robot w trakcie wypowiedzi po prostu miał pewne niedoskonałości, że tak powiem, to znaczy zastanawiał się, wahał się, miał te słynne filler wordy, jakby cała ta sytuacja była układana w ten sposób, jak gdybyśmy prowadzili konwersacje z robotem, z człowiekiem, nie z robotem, chociaż to już jest teraz naprawdę bardzo trudne, żeby tak naprawdę pilnować tej granicy. No i wszystkie te sytuacje po prostu będą potencjalnie takim narzędziem napędzane. Tam, gdzie nie oczekujemy ideału, a bardzo często nie oczekujemy ideału, no to myślę, że ten Empathetic Voice Interface po prostu się sprawdzi.

Marcin:

Myślę, że też warto wspomnieć o tym use case, który pewnie będzie wiodący tak naprawdę na początku, czyli call center, czyli ci wszyscy agenci, którzy do nas wyzwalniają. Już znamy te wszystkie boty, obecnie one są bardzo kiepskie, no bo to są po prostu zaifowane rozwiązania, no gdzie mamy gdzieś tam starter, jak ktoś coś powie, no to pewnie mamy z dwa, z dwie, trzy opcje. Na ile on w ogóle wyłapie, że my coś powiedzieliśmy, no tutaj otwiera się zupełnie szereg nowych możliwości, bo taki konsultant oparty o sztuczną inteligencję będzie w stanie zrozumieć nasze emocje, będzie też w stanie zareagować na ewentualną irytację, gniew. Jeżeli ktoś wrywa nas z pracy, to ciężko nie być wkurzonym, oferując nam jakieś tam gangi czy inną pierdołę. Myślę, że rozwiązania oparte Ochium będą w stanie sobie radzić z nami dużo lepiej. Czy to dobrze? No ciężko powiedzieć tak naprawdę. Zależy wszystko od sposobu zastosowania. No więc możemy się spodziewać nowej ery bardziej jakościowych telebotów. czas pokaże jak to wygląda. Tym niemniej warto sobie to demko sprawdzić póki jest dostępne. W opisie do tego filmu to demko znajdziecie. No i teraz Przemek też opisz to swoje znalezisko z dziedziny garmalżeryjnej jak to sam określiłeś. Jest ono fajne, ciekawe i myślę, że każdy z nas może ze sztuczną inteligencją wejść w kontakt właśnie za pośrednictwem tego o czym będziemy mówili.

Przemek:

Tak, to jest taki dodatek, który ja tutaj dodałem pół żartem, pół serio, ale jest jak najbardziej rzeczywisty, mianowicie sieć Lidl wprowadza lody napędzane sztuczną inteligencją. Czy będą to lody z algorytmami, czy będą to lody uruchamiane na serwerach? No nie, okazuje się, że to są zwykłe lody, takie, które kupowaliśmy wcześniej, natomiast ich smak i ta warstwa prezentacji została zaprojektowana przez sztuczną inteligencję. Za wszystkim stoi firma Wilsh. Pan Robert Wilsh, właściciel tej firmy wspomina, że po prostu obserwowano potencjał sztucznej inteligencji popularnego czata. Myślę, że w domyśle czata GPT, GPT-4, bo często to jest tożsame. No i postanowiono sprawdzić, czy taki czad, czy taki model może zaprojektować produkt, z którym ta firma wyjdzie na rynek. Jako, że ta firma produkuje lody, to zaprojektowano dwa smaki lodów. Mamy tutaj popcorn z karmelem oraz solony kokos z mango. smaki, które zostały zaprojektowane na podstawie poprzednio produkowanych powiedzmy konfiguracji, to jest propozycja sztucznej inteligencji, a dodatkowo firma Wilsh wykorzystała etykiety, wizualizacje, ilustracje również wykonane przez sztuczną inteligencję do tego, żeby z tymi produktami wyjść na rynek. No więc jak idziemy do Lidla, no to możemy spotkać sztuczną inteligencję już nie tylko w chociażby jakichś centrach obsługi, nie tylko przy kasach, gdzie słyszymy, że niewłaściwy produkt wkładamy do koszyka albo niewłaściwa waga jest tego produktu, ale teraz też możemy potestować lody. Wiem, że Marcin, ty tutaj masz coś do powiedzenia, jeśli chodzi o takie rzeczywiste testy tego produktu.

Marcin:

Tak, to prawda. Ja co prawda tych smaków wygenerowanych przez EA jeszcze nie miałem okazji próbować, ale kilka razy zamawiałem lody Willysh z ich strony za sprawą reklamy u lekkostronniczych. Już żeby też zaznaczyć, my tutaj żadnej współpracy z Willysh nie prowadzimy. Nie reklamujemy, ale faktycznie mogę te lody pochwalić. Są to jedne z najlepszych lodów, jakie jadłem. Tu firma też się chwali tą rodzinną tradycją, naturalnymi składnikami. Są one naprawdę dobre. Myślę, że warto spróbować. Jak będę w Lidlu, to z chęcią te smaki wygenerowane przez EA spróbuję.

Przemek:

Czyli w kolejnym odcinku właśnie robimy recenzję lodów Powered by EA.

Marcin:

Dokładnie to będzie gdzieś tam główny temat naszego odcinka. Popcornicum Carmelotron to jest tytuł podsumowania kwietnia. No i myślę, że już powoli dobijamy do brzegu. Bardzo krótki kącik brukselski, bez żadnych niespodzianek. Unia Europejska oficjalnie klepnęła AI Act. Nie było żadnego przewrotu, żadnych z naszych ukochanych Europosów Nie przesłuchał podcastów opanujejaj, nie poszedł po rozum do głowy, nie zastanowił się czy wprowadza tutaj w nas, w tym naszym kontynencie średniowiecze AI, bądź też może średniowiecze to przesada, ale utrudnia innowacje, działanie. Nie było takich refleksji, raczej feta trwa, tak więc raz jeszcze gratuluję. Jak to będzie wyglądało w praktyce? No mam nadzieję po prostu, że jak kukibanery, czyli będzie to jedynie irytujące, a nie będzie jednocześnie miało realnego wpływu na to, jak się prowadzi biznes i co u nas można, a co można w Stanach Zjednoczonych bądź Chinach. Czas pokaże. Pozdrawiam raz jeszcze tutaj panów i panie, którzy za nasze podatki robią takie fajne rzeczy.

Przemek:

Myślę, że jak wchodzimy w kącik brukselski, to trzeba być ostrożnym, bo wiem, że ty byś chętnie z trzy odcinki na ten temat nagrał jeszcze. Ja tutaj muszę cię kontrolować, żebyśmy po prostu nie stracili tego miejsca, które sobie wypracowaliśmy. Oczywiście żartuję, ale zupełnie szczerze jest to taki trochę temat, o którym też już szczerze nie chce mi się walczyć. Po prostu to się stało, to jest faktem. Tak jak mówisz o kukibanerach, myślę, że prawdopodobnie Nie zobaczymy podobnego przełożenia EA Act na to, co się dzieje w świecie technologii. Prawo zawsze będzie zostawać z tyłu, jeśli chodzi o jakieś osiągnięcia chociażby z Doliny Krzemowej, czy z innych miejsc. Niestety rzadko z Europy. No i tyle. Tyle. Niestety, niestety. Myślę, że zdecydowanie większą część naszego podcastu powinny zajmować inne tematy. Myślę, że dzisiaj był naprawdę ciekawy odcinek. No i dajcie po prostu znać, Marcin. Myślę, że jakieś słowo końcowe tutaj należy do ciebie. Oddaję ci mikrofon.

Marcin:

No to, jako że już wspomnieliśmy, że chcemy kontynuować konkurencję z Lexem Friedmanem i innymi podcastami, które są w top 5 na Apple Podcast, jeżeli chodzi o kategorie technologiczne, no to poprosimy Was o wystawienie 5 gwiazdek właśnie na tej platformie, również na Spotify. To jest najlepszy sposób, żeby wyrazić sympatię wobec tego, co robimy, żeby wesprzeć ten podcast, aby pomóc nam trafić do większej ilości słuchaczy. Zasięgi fajnie nam rosną, jest to głównie gdzieś tam zasługa algorytmów i naszej skromnej promocji, więc jeżeli ten odcinek Ci się podobał, jeżeli lubisz ten podcast, no to będziemy wdzięczni za tą recenzję, za te 5 gwiazdek. Będziemy również wdzięczni za kliknięcie subskrybuj, tak żebyś nie przegapił kolejnego podsumowania miesiąca. Jak już Przemek zapowiedział, będzie recenzja lodów i myślę też będzie kilka innych ciekawych newsów dla Was. Tak więc zachęcamy do takiej formy promocji naszego podcastu. Zachęcamy również oczywiście do komentowania, dzielenia się tym podcastem z osobami, które są sztuczną inteligencją zainteresowane. Dużo wkładamy pracy, aby przygotować się w sposób merytoryczny. Też jak widzicie, nie boimy się wyrażać opinii, które mogą być niepopularne. Jesteśmy tutaj po to dla Was, żeby dzielić się naszą wiedzą, naszym doświadczeniem, naszym spojrzeniem na tą branżę. Przypominam raz jeszcze, że jest nasz cotygodniowy newsletter. Jeżeli chcesz dostawać od nas newsy na bieżąco, a nie raz na miesiąc, no to właśnie newsletter opanuj.ai jest najlepszym sposobem, aby być jeszcze bardziej na bieżąco. Mamy również wspomniane już warsztaty. Przemek powiedział, że one są odbierane całkiem pozytywnie. No ja gdzieś tam na podstawie ankiet i referencji mogę stwierdzić, że są odbierane bardzo pozytywnie. Wszyscy nasi klienci wracają do nas z pochwałami, z zadowoleniem. Jeżeli chcesz do tego grona dołączyć, no to zachęcam do sprawdzania opanuj.ai Tam jest więcej informacji na ten temat. Jest też możliwość umówienia się z nami na darmową konsultację, tak abyśmy mogli zrozumieć, czy odpowiadamy na Twoje potrzeby, na wyzwania, które są w Twojej organizacji. Tak więc zachęcamy. I na koniec jeszcze Przemek też mówił, że będzie krótka promocja drugiej edycji naszego kursu Opanuj Frontend AI Edition, gdzie jest to kurs skierowany do frontendowców, do osób, które w tej właśnie specjalizacji chcą się rozwijać i chcą również wykorzystywać sztuczną inteligencję, bo aż pięć lekcji z pięciu modułów są poświęcone sztucznej inteligencji, tak więc w różnych obszarach Frontend Developmentu pokazujemy, jak można sztuczną inteligencję wykorzystywać, jak można wspomagać swoją pracę. Więc jeżeli ta tematyka Cię interesuje, to zapraszamy na www.opanujfrontend.pl. Tam od 2 kwietnia do 15 kwietnia znajdziesz najlepsze ceny, jakie będziemy oferowali, jeżeli chodzi o drugą edycję, która wystartuje w połowie czerwca tego roku, zgodnie z obecnym planem. Tyle jeżeli chodzi o… Tutaj widzę, że jeszcze Przemek nam szybko dorzucił dwa tematy. Przemek, opowiedz, jak my właśnie też tą sztuczną inteligencję w praktyce, w tym kursie, stosowaliśmy.

Przemek:

Tak, na sam koniec zachęcam do odwiedzenia naszego profilu na githubie, profilu przeprogramowanych, gdzie pojawiły się niedawno dwa nowe repozytoria, które możecie również sprawdzić. One w bardzo praktyczny sposób pokazują, jak tę sztuczną inteligencję można integrować z procesami wytwarzania oprogramowania. Są to rozwiązania, które my też przedstawiamy uczestnikom naszego kursu, ale postanowiliśmy je udostępnić w takim formacie open source. żebyście mogli zerknąć na ten kod, być może wykorzystać w swoich środowiskach. Jednym z takich rozwiązań jest GPT Debugger, czyli akcja do GitHub Action, która pomoże wam debugować problemy z CI-CD, jest w stanie analizować błędy, problemy, które występują w trakcie pracy poszczególnych scenariuszy automatyzacji, które budujecie. A drugim rozwiązaniem jest GPT alerting, czyli przykład tego jak można wykorzystać function calling z platformy OpenAI do sterowania do routingu alertami na produkcji. Więc dwa takie nowe projekty na GitHubie w formie opensource na profilu przeprogramowanych możecie zerknąć, możecie dać gwiazdkę, będzie nam bardzo miło, no i podzielić się feedbackiem. Będzie nam jeszcze bardziej miło. I myślę Marcin, że to tak naprawdę tyle. Jeszcze raz podkreślę, druga edycja Opano i Frontend we wtorek. Od 2 kwietnia zapisy w formie przedsprzedaży, a my kontynuujemy nasze przygody po świecie sztucznej inteligencji. Recenzja lodów to jest must listen kolejnego odcinka. Konkretne tematy również, więc zachęcamy. Dzięki, że jesteście. No i do usłyszenia już niebawem.

Marcin:

Do usłyszenia. Cześć.

Newsletter Opanuj AI

Subskrybuj ręcznie selekcjonowane materiały z obszarów AI i rynku nowych technologii, które pomagają dowozić lepsze rezultaty i budować kulturę innowacji

Zapisując się do newslettera akceptujesz naszą politykę prywatności.

W każdy poniedziałek
Otrzymuj podsumowanie najważniejszych informacji z branży AI i nowych technologii. Gwarantujemy zero spamu i tylko wartościowe treści.
Tylko najlepsze materiały
Materiały zamieszczane w newsletterze przechodzą proces selekcji, gdzie wymagamy jakości i możliwej do wykorzystania wiedzy.