Podcast Opanuj.AI

Bądź zawsze na bieżąco

4 grudnia 2024

Rekrutacja z AI, ofensywa z Chin i nowy Projekt Manhattan | Listopad 2024

Słuchaj na twojej ulubionej platformie

Transkrypcja odcinka

Tekst wygenerowany automatycznie - może zawierać drobne błędy i literówki

Marcin:

Cześć, witajcie w kolejnym podsumowaniu miesiąca w świecie generatywnej sztucznej inteligencji. Przed Wami Marcin Czarkowski i Przemek Smyrdek. Mamy dzisiaj kilka istotnych tematów. Ten najważniejszy wydaje się, że będzie coraz bardziej istotny, będzie wywoływał wiele kontrowersji w nadchodzącym roku, a my poruszymy go już teraz. Zrobiliśmy w tym celu odpowiednie badania, skontaktowaliśmy się ze społecznością, zobaczyliśmy co w trawie piszczy i jest już coraz więcej ciekawych publikacji na ten temat. O co chodzi? Chodzi o wpływ generatywnej sztucznej inteligencji na rekrutację programistów. Wygląda na to, że wiele firm, które na spokojnie podchodziły do tej całej tak zwanej rewolucji generatywnej i sztucznej inteligencji, chcąc, nie chcąc będą musiały zaadaptować się do tych nowych realiów i to nie tylko na poziomie podejścia do codziennej pracy programistów, ale również właśnie do procesów rekrutacyjnych. No bo te procesy rekrutacyjne w swojej dotychczasowej formie przestają właściwie funkcjonować. Dlaczego? o co chodzi, jakie są możliwe rozwiązania, o tym dzisiaj będziemy mówić przede wszystkim, ale również omówimy postępującą rywalizację na gruncie AI pomiędzy Stanami Zjednoczonymi a Chinami oraz powiemy Wam o nowościach w aplikacjach ChatGPT i Eleven Leader. Będzie to odcinek pełen ciekawych dyskusji właśnie o wpływie generatywnej i sztucznej inteligencji na rekrutację. Zanim przejdziemy do tego tematu, no to zapraszamy Was tradycyjnie do kilku istotnych miejsc, do naszych kilku istotnych usług, kursów. Po pierwsze, mamy nasze warsztaty, całodniowe szkolenia dla firm. Są dostępne terminy na pierwszy kwartał przyszłego roku. Jeżeli chcecie, aby programiści, testerzy w Waszej firmie efektywnie korzystali z generatywnej sztucznej inteligencji, czy to pod postacią kursora, GitHuba, Copilota, czata GPT, zgodnie z zasadami bezpieczeństwa i prywatności, no to my możemy w tym wszystkim pomóc. Nasza szczegółowa oferta jest dostępna na stronie opanuj.ai łamana szkolenia. Nasze szkolenia są nastawione na praktykę, zawierają dziesiątki interaktywnych ćwiczeń. No i oczywiście cieszą się wysokim poziomem satysfakcji. Nasi klienci chętnie zostawiają nam referencje, które są dostępne na stronie i decydują się na naszą szerszą ofertę szkoleniową po udanych szkoleniach pilotażowych. Więc jeżeli macie zapotrzebowanie na tego typu szkolenie, na podnoszenie kompetencji swoich programistów w zakresie generatywnej sztucznej inteligencji, to zapraszamy na opanuj.ai. Obradasz szkolenia, można się z nami umówić na darmową konsultację, zbadać Wasze potrzeby i dostosować naszą ofertę do Waszej firmy. Dla programistów, którzy chcą się uczyć na własną rękę, mamy kursor programu z AI, z którego można opanować najlepszy edytor AI dostępny obecnie na rynku. Jakim jest kursor? Mamy na pokładzie już 280 programistów. Jest tam ogrom wiedzy nie tylko o programowaniu z kursorem, ale szerzej o programowaniu z AI. Pigułka wiedzy teoretycznej o LLM-ach, wszystko co powinniście wiedzieć. Omówienie najważniejszych technik Prompt Engineeringu, Chain of Thought, Self Reflection, Panel of Experts i wiele innych. I na końcu dedykowany moduł o integracjach technicznych przez API z wykorzystaniem usług takich jak Make.com, dzięki którym z wykorzystaniem AI możemy automatyzować elementy naszej pracy. I co ważne. Do końca tygodnia można nabyć ten kurs w absurdalnie niskiej cenie, którą jest 149 złotych. W następnym tygodniu będziemy mieli już cenę 199 złotych. To nadal jest absurdalnie śmiesznie niska cena. Wielu z kursantów, którzy to szkolenie ukończyło, mówiło nam, że jest to kurs warty 300-400 złotych, ale my świadomie zrobiliśmy ukłon w kierunku popularyzacji, generatywnej wczesnej inteligencji, programowania z AI i najpopularniejszego edytora AI, jakim jest Cursor. Tak więc warto skorzystać, warto się uczyć. Naprawdę jest to świetny kurs w bardzo niskiej cenie. I ostatnie zaproszenie do newslettera opamy.ai. Na stronie opamy.ai można się zapisać i otrzymywać co tydzień w poniedziałek trzy wyselekcjonowane przez nas news oraz artykuły dotyczące generatywnej sztucznej inteligencji. To jest świetny sposób, aby być na bieżąco z najważniejszymi informacjami z branży, a dzieje się dużo i rozwijać się na bieżąco, korzystać z najlepszych rozwiązań. No i oczywiście, jeżeli odcinek przypadnie Wam do gustu, udostępniajcie go na social media i oceniajcie go na platformie podcastowej, z której korzystacie. Dzięki temu trafimy do szerszego grona odbiorców i jesteśmy za to bardzo Wam z góry wdzięczni.

Przemek:

I teraz przechodzimy do pierwszego z tematów, o których chcielibyśmy porozmawiać. Będzie to temat, który bardzo dobrze moim zdaniem wpisuje się w ten okres, moment 2024 roku. Nagrywamy ten odcinek 4 grudnia. To jest taki moment, gdzie w wielu firmach zaczyna się debata na temat planów na przyszły rok, projektów na przyszły rok, budżetów na przyszły rok. Wiele firm po prostu robi sobie pauzę w tej bieżącej działalności. No i zaczyna myśleć nad tym, jak powinni się zmieniać, jak powinni ewoluować jako organizacje. No i tutaj nie ma co ukrywać, jest jeden temat, który przechodzi jak taka burza przez te wszystkie dyskusje i spotkania. To jest oczywiście generatywna sztuczna inteligencja. Generatywna sztuczna inteligencja, co do której wielu z nas przez długi czas miało pewnego rodzaju wątpliwości albo dystans. Okazuje się, że miesiące kolejne mijają, a tak naprawdę ten wpływ generatywnej sztucznej inteligencji jest wyłącznie większy i coraz więcej obszarów świata programowania, świata nowych technologii zaczyna z tą sztuczną inteligencją, z tym Generative AI, w jakiś sposób się mierzyć. No i teraz chcielibyśmy porozmawiać o jednym szczególnie ważnym temacie, który będzie istotny dla wszystkich, którzy z jednej strony szukają nowej pracy, zastanawiają się nad zmianą pracy w kolejnym roku, a z drugiej strony Będą z tymi osobami rozmawiać, będą dyskutować z kandydatami, będą sprawdzać ich umiejętności, będą oceniać czy tak naprawdę na rozmowę przyszedł kandydat, czy może model językowy, bo do tego ta dyskusja się sprowadza. No ale po kolei, w lipcu tego roku Gergely Orosz, albo Gergely Orosz, autor bloga The Pragmatic Engineer przeprowadził takie badanie, gdzie zapytał 216 profesjonalistów z branży IT, czy w ogóle mają jakiś kontakt z generatywną sztuczną inteligencją. I tam w tej ankiecie 83% wskazały na to, że tak, że generatywna sztuczna inteligencja to jest już coś, z czego korzystają. No i teraz pod koniec listopada, na przełomie listopada i grudnia pojawiają się wyniki kolejnego badania, gdzie ten sam autor postanowił spytać 49 liderów z branży IT, jak ta generatywna sztuczna inteligencja będzie wpływać na rekrutację. No bo wraz z tym, jak ten temat dojrzewa, wraz z tym, jak przyzwyczajamy się, że on istnieje, jak przyzwyczajamy się do tego, że on prawdopodobnie nie przeminie za 2-3 tygodnie, no to te debaty stają się coraz bardziej poważne, istotne, no i myślimy o wszelkiego rodzaju ryzykach czy konsekwencjach wdrażania tego typu technologii. No i dzisiaj chcielibyśmy spędzić troszkę czasu właśnie nad tym raportem, który pojawił się na blogu The Pragmatic Engineer. Tam właśnie tych 49 specjalistów podzieliło się swoimi opiniami na temat tego, jak generatywna sztuczna inteligencja zmieni świat rekrutacji. No ale zanim wejdziemy do świata The Pragmatic Engineer, to porozmawiamy o naszym świecie przeprogramowanych. Tak się akurat złożyło, że przypadkowo ja na moich mediach społecznościowych opublikowałem dość podobne pytanie. Jakiś czas temu do głowy przyszło mi właśnie pytanie o to, czy ty w ogóle jako specjalista w branży IT chciałbyś, żeby na rekrutacji te narzędzia były dopuszczalne. Bardzo mnie ciekawiło jak wygląda stanowisko naszej branży, jak wygląda stanowisko uczestników w naszej społeczności, czy może jest to oczywiste, czy może to wcale oczywiste nie jest. No i uzyskałem dwa stosunkowo mocne dowody na to, że po prostu mamy podział. Mamy podział na zwolenników i na przeciwników tego typu technologii, konkretnie na etapie rekrutacji. No bo tak, w naszym przeprogramowanym newsletterze, który możecie tutaj małe lokowanie subskrybować na przeprogramowanie.pl łamane przez newsletter, 75 osób odpowiedziało w naszej ankiecie, gdzie zadaliśmy jedno pytanie, czy EA powinno być dostępne na rekrutacji programistów. 56% osób, 56% ankietowanych odpowiedziało, że tak, natomiast 44% ankietowanych odpowiedziało, że nie. No więc dzieli nas zaledwie kilka punktów procentowych od tego, żebyśmy mieli tak naprawdę podział na dwie grupy o zupełnie przeciwstawnych spojrzeniach. Oczywiście nie jest to badanie pogłębione, jest to jedno proste pytanie. W tym raporcie, do którego zaraz przejdziemy, ta dyskusja staje się po prostu troszkę bardziej złożona. No ale zapytałem jeszcze o to samo na moim LinkedInie. Tutaj uzyskałem 69 odpowiedzi. No i znowu okazało się, że mamy podział. Tych zwolenników jest więcej, bo 59% opowiada się za tym, żeby generatywna sztuczna inteligencja była wykorzystywana na rekrutacji programistów. No ale mamy 41% osób, które twierdzą, że nie. Z wielu różnych powodów. Ja tam wspominam o tym, że na pewno odpowiedź bardzo mocno zależy od tego, jaką rolę, jaką funkcję pełnisz w firmie. Czy to ty jesteś kandydatem, czy może ty będziesz tych kandydatów filtrował. Czy może jesteś programistą, który czeka na specjalistę, który ma się pojawić, ale na przykład nie bierzesz udziału w rekrutacji, ale chciałbyś, żeby kolejna osoba w twoim zespole była po prostu, żeby miała odpowiednie kompetencje, żeby jej wiedza była na odpowiednim poziomie itd., itd. No i zostaliśmy na takim etapie. zasygnalizowanego podziału można powiedzieć, pojawiła się jeszcze dyskusja pod naszymi filmami, pod postami na LinkedIn i tak dalej i tak dalej. No i teraz właśnie dostajemy kolejny etap w tej debacie o rekrutacji i Gen AI. No a to wszystko właśnie za sprawą raportu Giergerego Orosza. Tak jak wspomniałem 49 liderów z branży IT wypowiedziało się na temat tego jak Gen AI zmienia świat rekrutacji, zmienia to jak ocenia się kandydatów, co Ci kandydaci prezentują. No i chcielibyśmy krótko o tym temacie podyskutować, bo na pewno to będzie debata, która tak naprawdę przejdzie bardzo mocno przez wszystkie firmy, przez wszystkie organizacje. Jeśli jeszcze teraz się do tego nie przygotowujecie, to myślę, że czas nadrabiać zaległości. Myślę też, że my dokładamy taką małą cegiełkę do tego, żeby tę debatę w jakiś tam sposób kształtować. No i tutaj Marcin, oddam Ci głos. Jak przede wszystkim Ty widzisz ten raport, co dla Ciebie jest istotne, co jest na takim miejscu numer jeden, jeśli chodzi o te wnioski, które tam się pojawiły?

Marcin:

Jest tam kilka interesujących danych liczbowych, statystyk, które warto przywołać, żeby rozpocząć tę dyskusję, bo to pokazuje, jak temat jest zniuansowany, złożony i że nie możemy tak naprawdę przed nim dalej uciekać, no bo to się już dzieje i trzeba się do tej nowej rzeczywistości, tej nowej realii zaadoptować na rzecznej świecie. 81% kandydatów według tego raportu nie obawia się, że zostaną przyłapani na korzystanie ze sztucznej inteligencji podczas rozmów kwalifikacyjnych i nawet do 25% z nich i tak używa generatywnej sztucznej inteligencji, gdy jest to wyraźnie zabronione. Bardzo możliwe, że w wielu procesach jest to taka szara strefa, nie ma ani wprost powiedziane tak, ani nie. Więc badamy, na co możemy sobie pozwolić i czy zostaniemy przyłapani. Nie sądzę, żeby ktoś w takiej szarej strefie się specjalnie chwalił, że z sztucznej inteligencji korzysta, bo jest to ryzykowne ruszanie w świecie. chociażby patrząc na tą statystykę, którą ty przywołałeś, że jest pół na pół wśród programistów, jeżeli chodzi o popieranie bądź też niestosowania sztucznej inteligencji podczas rekrutacji. I co szczególnie również ważne, tylko 5% firm w raporcie Orosza wprost dopuszcza narzędzia generatywnej sztucznej inteligencji podczas rekrutacji. No więc widzimy, że sytuacja jest naprawdę ciekawa. Większość firm nie jest gotowa, najwyraźniej w świecie nie ma świadomych polityk w tym temacie, nie zaktualizowała swoich procesów rekrutacyjnych. Zresztą nie jest specjalnie dziwne, bo procesy rekrutacyjne to jest temat, który wymaga dużo czasu, dużo zastanowienia. Jeżeli już raz coś zaprojektujemy, co działa, to niekoniecznie chcemy to zmieniać. Wygląda na to, że w większości firm takie zmiany w przyszłym roku będą niezbędne do dalszego, efektywnego rekrutowania programistów. Tak więc jest tutaj dysproporcja. Programiści, którzy się rekrutują są dużo bardziej gotowi na te zmiany, bo codziennie z tych narzędzi korzystają w dużej mierze, podczas gdy firmy mają procesy jeszcze sprzed tych wszystkich zmian. Jak w ogóle do tego podejść? Są różne podejścia, dwie najbardziej skrajne. Korzystaj z czego chcesz, jakkolwiek chcesz, jeżeli ci po prostu dobrze pójdzie, nie ważne czy korzystasz z Google’a, z generatywnej sztucznej inteligencji, to fajnie. Liczy się, żebyś po prostu odpowiedział na pytania, wykonał zadania. To może być jedno z takich podejść. Drugie może być nie, nie możesz korzystać z niczego, przyjeźdź do nas do firmy, biała tablica, mazak i rozpisujesz jakieś tam odwrócone drzewo binarne, wyszukiwanie itd., czyli stare dobre czasy 10 lat temu w dużych firmach technologicznych. Pewnie będzie dużo rozwiązań po środku i wydaje mi się, że one będą najsensowniejsze tak naprawdę. Nie da się ukryć, że kodowanie po godzinach, takie take home assignments, czyli realizowanie projektów. Licząc na to, że w ten sposób sprawdzimy na ile programista jest kompetentny w danych technologiach, na ile sobie dobrze radzi, no to już nie jest najlepsze co możemy obecnie zrobić. No bo tak jak mówiłeś, to bardziej będziemy testowali umiejętności modelu językowego, z którego dany programista korzysta. Jak dobrze wiemy, nie w pierwszych przypadkach robimy szkolenia. Poziom kompetencji w korzystaniu z generatywnej sztucznej inteligencji może być bardzo różny. I to również gdzieś tam daje nam zrozumienie, na ile ktoś dobrze korzysta z tych obecnie dostępnych technologii. Warto byłoby, jeżeli już chcemy nadal takie take home assignments stosować, no to wydaje mi się podwyższenie poprzeczki byłoby tutaj zasadne. Mam tu przede wszystkim na myśli nieoczekiwanie jakiegoś nie wiadomo jakby szukanego kodu, bo to jest sztuka dla sztuki, ale na przykład ja już miałbym poważne wątpliwości dostając taki projekt, gdyby on był pozbawiony jakichkolwiek testów. Na przykład wcześniej się mówiło, a no nie ma czasu na pisanie testów, w końcu to jest gdzieś tam szybki projekt, no ale teraz zakodowanie prostych testów, Z wykorzystaniem LM’ów to naprawdę są minuty, jeżeli wiemy jak to zrobić, więc to też gdzieś tam daje nam spojrzenie. na ile ktoś jest dobrym programistą, świadomym tego, jakie są dobre praktyki inżynieryjne w zakresie wytwarzania oprogramowania, no bo mając w dyspozycji takie technologie, możemy te techniki wdrażać znacznie szybciej i to już nie jest tylko kwestia gdzieś tam poważnej pracy na produkcji, ale również pracując szybko, zwinnie, jesteśmy w stanie takie podstawowe, dobre praktyki wdrażać. Tak przynajmniej uważam, chociaż Znowu ten take-home assignments to wydaje mi się, że może nie wytrzymać w ogóle próby czasu i takie podejście hybrydowe, które poniekąd będziemy może podczas livecodingu pozwalali na stosowanie generatywnej sztucznej inteligencji, żeby zobaczyć, jak ktoś sobie radzi z rozwiązywaniem problemów, korzystając z narzędzi, których i tak korzysta, badając bardziej proces rozumowania, rozwiązywania problemów, no i jednocześnie potem przychodząc na takie rozmowy bardziej dogłębne, dotyczące informatyki, projektowania systemów, architektury, przepływu informacji. To będą tematy, które pozwolą nam zbadać tę wiedzę teoretyczną, ogólne obycie w programowaniu, w computer science. Takie rozwiązanie wydaje mi się sensowne. Gdzie to wszystko nie bardzo wytrzymuje próbę rzeczywistości, to są rekrutacje na stanowiska juniorskie. gdzie zadawanie tego typu złożonych, dogłębnych pytań, no to po prostu nie ma miejsca, no bo oczywiste, że ktoś z małym doświadczeniem nie ma takiej wiedzy i tego od niego nie oczekujemy. Z samego podstawów kodowania ciężko będzie go sprawdzić, no bo LLM-y po prostu all the way, no chyba, że kogoś weźmiemy do biura i będziemy go patrzyli na ręce. No pewnie część firm i na to się zdecyduje. Więc to będzie ogromne wyzwanie. No i teraz pytanie, czy właśnie juniorzy na tym najbardziej nie stracą niestety, bo firmy będą się przez te trudności bały jeszcze bardziej juniorów zatrudniać. Co ty o tym sądzisz Przemek? Czy tu widzisz jakieś rozwiązanie? Jak właśnie podejść do rekrutacji tych najmłodszych, że tak by powiem, programistów?

Przemek:

Na pewno tak jak rozmawialiśmy, pamiętam na infosze, że to jak słabe są rekrutacje w niektórych firmach zaczęło być po prostu bardziej widoczne i odczuwalne. I teraz wydaje mi się, że taką najgorszą strategią jaką można tutaj gdzieś tam zaaplikować To jest po prostu taka strategia wyparcia, to znaczy obrażamy się na to, że ta generatywno-sztuczna inteligencja jest i istnieje, że ci kandydaci chcą z niej korzystać, no więc my będziemy robić wszystko tak jak dawniej, no tylko że może być tak, że zostaniesz ostatnią firmą na rynku, która będzie działać tak jak dawniej, a wydaje mi się, że jednak wieść się rozniesie w ten czy inny sposób i jednak te statystyki pokazujące ile osób już teraz korzysta na co dzień z Gen AI będą powodować to, że po prostu będzie też takie oczekiwanie na rynku, że ja idę na rekrutację, pozwólcie mi z tego korzystać i po prostu tyle i kropka. Na naszym YouTubie pojawił się taki komentarz użytkownika Aksendev, który wspominał, że ostatnio miał rozmowę rekrutacyjną w firmie, gdzie używanie AI jest na porządku dziennym, a pierwsze co usłyszał to proszę wyłączyć Copilota. No i też jest to coś takiego, jest to taka obserwacja, taki wniosek, który od razu chociażby pojawia się pod jakimś filmem, pojawia się w przestrzeni publicznej, no oczywiście nie ma tam nazwy firmy, no ale programiści, specjaliści będą to po prostu widzieć i zauważać. Co do tego wpływu na początkujących, to dla mnie to są trochę dwa osobne wątki, tak mi się wydaje, bo na przykład tutaj kolejny taki komentarz, który przywołam użytkownika Vesper, dając swobodny dostęp do tego, zabierasz nowym programistom możliwość doświadczania, uczenia się na błędach, rozwiązywania problemów itd. Ja bym to potraktował jako dwa troszkę wątki, to znaczy jak sprawiać, żeby rekrutacja realnie pokazywała, co ty potrafisz i jak uczyć się programowania, żebyś nie jechał na kodach, żebyś nie oszukiwał systemu, żebyś rozumiał, co tak naprawdę tam się dzieje. No bo wiem, że ty raczej jesteś z tej szkoły, że tak powiem, bólu i cierpienia, która mówi, że po prostu to jest wartościowe i użyteczne, jeśli programista po prostu gdzieś tam napotka te przeszkody na swojej drodze i tak dalej i tak dalej. Tutaj się możemy wspierać, Mi z kolei wydaje się, że jednak ważne, o ile nie ważniejsze, jest to utrzymanie motywacji do tego, żeby jednak rozwijać się w tym programowaniu. Ale wydaje mi się, że po prostu dla zdrowia tej dyskusji trochę bym to rozdzielał. Po prostu z jednej strony szukałbym sposobów na to, żeby rekrutacje dopasowywały się do tych narzędzi, żeby nie było takiego naiwnego jakby zamykania oczu i stwierdzania, że po prostu one nie istnieją. Z drugiej strony wydaje mi się, że osobną dyskusją, która powinna się gdzieś tam wydarzać i też jest bardzo mocno jednak personalna, no bo wiemy, Są osoby z różnymi ambicjami, są osoby, które po prostu oszukują cokolwiek robią, są osoby, które zdrowo i etycznie podchodzą do poszczególnych aktywności i wydaje mi się, że z rekrutacją i w ogóle z rozwojem, z nauką programistów będzie po prostu podobnie. Kto będzie chciał tak naprawdę zrozumieć o co w tej branży chodzi, jak to działa, jak może się przydać swojej firmie, to będzie szukał narzędzi takich czy innych i ten GenAA nie przeszkodzi. będziesz się starał, tak jak właśnie w tym raporcie, jak będziesz się starał właśnie wklejać kod, którego nie rozumiesz, jak będziesz się starał zerkać gdzieś w jakieś okienko na boku, jak będziesz miał jakiegoś bota, który interpretuje pytanie rekrutera, no to wiesz, no prawdopodobnie w wielu innych obszarach życia w ten sposób postępujesz, nie tylko na tej rekrutacji i jakby to też nie do końca jest jakby sam tutaj konflikt pomiędzy rekrutacją a Gen AI, przynajmniej moim zdaniem, nie wiem jak ty to widzisz.

Marcin:

Jest tym dużo prawdy, tylko nadal ciężko mi sobie wyobrazić jak teraz zbadać kogoś początkującego, no bo jeżeli ma dostęp do LM-ów, no to może się wydawać, że jest na dużo wyższym poziomie niż jest faktycznie, bo można pewne rzeczy gdzieś tam wyrecytować, przeczytać to co LM odpowiedział. One zwykle odpowiadają na poziomie co najmniej juniora. czasami nawet sprawnego regulara, jeżeli chodzi o poziom analizy kodu, jakichś ewentualnych problemów.

Przemek:

Zresztą jest film na naszym YouTubie, gdzie po prostu testujemy pięć zadań TypeScripta i one po prostu znikają w sekundę, w sensie tam nie ma czego zbierać.

Marcin:

Dokładnie tak. Oczywiście, jak wspominałem, przy tych stanowiskach wymagających wyższego poziomu doświadczenia możemy odpowiednio dopytać, możemy zadać jakieś bardziej zniuansowane pytanie, zobaczyć jak ktoś waży zalety, wady, no to już jest dużo trudniejsze do takiego szybkiego spromptowania. No ale przy takich podstawowych pytaniach, jakie się zwykle zadawało na Union Anonymous, sprawdzaliście jakąś podstawową wiedzę o HTML, CSS i JS, mówię tutaj w kontekście front-end developera, umiejętność zakodowania jakiejś prostej apki, no to wszystko te elemy rozpykują i ciężko mi sobie wyobrazić jak gdzieś tam będzie można odróżnić tych, którzy faktycznie cokolwiek kumają, włożyli ten czas i są zaangażowani, a osobami, no to już wiadomo jest taka trochę wydmuszka i krzywdzący stereotyp, ale które skończyły ten przysłowiowy bootcamp w kilka tygodni, no i teraz gdzieś tam szukają tego swojego słynnego 15K, tak naprawdę nie będąc specjalnie zainteresowani pracą programisty, tylko po prostu chcą mieć jakąś robotę, która jest dobrze płatna i idą najniższą linią oporu. No nagle różnica pomiędzy tymi osobami się mocno zaciera, zwłaszcza jeżeli byśmy mieli dać dostęp do tych narzędzi, to oczywiście ta różnica pewnie by wyszła podczas okresu próbnego, bo to widać, ale znowu firmy może będą musiały zatrudniać więcej tych juniorów z takim założeniem, że część odpadnie w czasie tego okresu próbnego. Czy jest na to teraz dobra koniunktura? Czy są na to budżety? Czy jest czas bardziej doświadczonych programistów, którzy będą weryfikowali podczas okresów próbnych? Nie wiadomo. Może po prostu nawet będzie czas zmienić podejście, że kogoś takiego bierze. Jak wychodzi, że ktoś jest wydmuszką i bardziej, gdzieś tam sprawdzaliśmy LM, a wyszło, że nic za tym ELM specjalnie nie ma, to trzeba będzie się szybciej żegnać. Czy polskie prawo jest do tego przystosowane? Wydaje mi się, że nie jest. Można tam wypowiadać te umowy, ale to wszystko jest złożone. To będzie naprawdę ciężkie, przez co Stąd moja obawa, że wiele firm znowu jeszcze bardziej będzie zniechęcona, żeby zatrudniać osoby, które mają mało doświadczenia. To już teraz jest ryzyko, to już teraz jest tak naprawdę inwestycja, bardziej koszty niż zysk dla firmy. Taką skrótową podejście może być to w ogóle gdzieś tam nie bierzmy tych juniorów, bierzmy seniorów, no bo ich możemy sprawić. Oni zresztą Najwięcej potrafią z tej generatywnej sztucznej inteligencji wycisnąć, jeżeli korzystają z niej świadomie, w sposób kompetentny. No więc tutaj jakaś taka moja obawa, że ci juniorzy mogą po prostu stracić. A być może po prostu musimy, mając te LLM-y, zapomnieć o tym, że jest takie stanowisko jak junior, osoba, która nic nie potrafi, masz już takie narzędzie, masz po prostu nowe sposoby, żeby się szybciej i efektywnie uczyć i raczej po prostu zaczynamy od regulara, albo jesteś niezależnym, samodzielnym programistą, może bez wielkiego doświadczenia, nie jesteś gotowy, żeby samodzielnie prowadzić projekty, podejmować jakieś decyzje architektoniczne, ale co najmniej musisz być gotowy, żeby samodzielnie dowozić. To jakby jest jakieś rozwiązanie, ale still. Część rzeczy trzeba się nauczyć w tej pierwszej pracy, no bo mimo wszystko ta praca taka samodzielna, jakkolwiek by ona ambitna nie była, ile byśmy narzędzi mieli do dyspozycji, no to część rzeczy po prostu trzeba się przez te pierwsze kilka lat nauczyć i to będzie też wymagające, wydaje mi się, zawsze dla tych osób, które może nie mają tyle zacięcia i takiej zdolności do samodzielnej nauki. Więc tutaj widzę duże wyzwanie właśnie na tym poziomie wejściowym zwłaszcza.

Przemek:

Powiedziałaś na początku, że w niektórych firmach były te whiteboard interviews, rozmowy przy tablicy i tak dalej. Wydaje mi się, że będą firmy, które będą wracać do tego pomysłu albo może to być z tyłu głowy, że jednak ten kontakt fizyczny, to żeby zobaczyć jak ktoś pracuje, ten per-programming będzie jakimś tam sposobem na zaadresowanie tych problemów. No teraz oczywiście pytanie czy to się nie rozbije o koszta. Mega mi się podoba ta obserwacja, że junior może przestać istnieć jako rola. Jest to mocne stanowisko, jest to mocny pomysł, ale fajnie tu uargumentowałeś i wydaje mi się, że No może to być jeden z objawów tej transformacji. Wiemy że po prostu ta transformacja i tak przyjdzie i ona już trwa i tak ten pracownik umysłowy już się przykleja do tego co pilota kursora i tak dalej i tak dalej. Więc może po prostu trzeba odważnie porozmawiać o tym jak powinny się zmienić stanowiska jak powinna się zmienić rekrutacja. Wydaje mi się że po obserwowaniu tego jak początkujący programuje nawet na swoim laptopie nawet z włączonym ale jednak na żywo. to byłby jakiś sposób na to, żeby przefiltrować gdzieś tam tę pulę kandydatów. Oczywiście nie jest to tak wygodne jak uruchomienie rozmowy na Zoomie i przefiltrowanie dziesięciu kandydatów jednego dnia, no bo wydaje mi się, że to jest największe tutaj ograniczenie i największy minus, ale jakiś pomysł to jest. Też zapytam ciebie, czy twoim zdaniem na przykład przeszłoby coś takiego jak dopuszczanie tylko określonych modeli, na przykład wyłączenie tych frontier modeli z takich rozmów i teraz dawanie zielonego światła modelom ze średniej półki. Czy dla ciebie to jest robialne, czy raczej absurd?

Marcin:

Na pewnym poziomie byłoby to rozwiązanie, bo te modele też są o tyle gorsze od tych topowych, że częściej harucynują. Częściej trzeba zauważyć, że coś poszło nie tak, więc mamy tę korzyść, że ten kod się generuje, nie musimy pisać tego boilerplate’u. ale pewnie będzie znacznie więcej wpadek niż w takich modelach jak np. CRO 3 i PULSONED, który naprawdę już na podstawie najprostszych promptów jest w stanie efektywnie działać. Myślę, że takie modele właśnie jak np. DEEPSEA, QUEN, o których będziemy mówili, te chińskie modele, które dobrze programują, ale jednak trzeba je promptować w bardziej szczegółowy sposób po angielsku. Więc ta poprzeczka, żeby z nich wyciągać wartość, jest zawieszona trochę wyżej. To może być jakieś rozwiązanie. No ale znowu, tutaj się pojawiają jakieś nierówności na poziomie tego, na ile ktoś jest dobry z angielskiego i tak dalej, i tak dalej. No to już to też są gdzieś tam tematy, które mogą budzić kontrowersje. Chociaż wiadomo, u nas w branży z jednej strony tego angielskiego się oczekuje, że każdy go dobrze zna, chociaż jak jest w praktyce, no to wszyscy wiemy, że wcale tak świetnie z tym angielskim u stosunkowo niemałej liczby programistów są te problemy po prostu z angielskim i to jest raczej język, który jest unikany i to jest no tak, że coś tam umiem, w Google poszukam, ale żeby się efektywnie, sprawnie tym językiem posługiwać chociażby w komunikacji z sztuczną inteligencją, to już może wcale nie być tak różowo. Więc to jest naprawdę temat, który jest złożony, jest zniuansowany i wydaje mi się, że jak to zwykle bywa, rynek pokaże, co działa najlepiej. Firmy będą testowały różne rozwiązania, pewnie właśnie z tej pełnej puli dostępnych rozwiązań. Będą skrajni optymiści, skrajni przeciwnicy i wiele rozwiązań pośrodku. I zobaczymy, które rozwiązania będą się twardzały najlepiej. Zarówno z perspektywy firm, jak i programistów. To również będzie takie sprzężenie zwrotne. Ale jest to bardzo ciekawe. No i właśnie co mi się podoba, że to trochę właśnie rozbija ten suspens, ten status quo, że No nic się tak naprawdę nie dzieje. Jeszcze zaczekajmy, a zobaczmy. A może w przyszłym roku podejmiemy decyzję co do tych polityk. Jakoś to będzie. A może tego kopajrocika tam kupimy tym programistom. Niech już mają. A może nic nie zrobimy w tej sprawie. A może właśnie zabronimy. No bo prawda jest taka, że wśród programistów ta generatywna sztuczna inteligencja już jest i ona zostanie na dobre. Najwyższej na świecie zbyt przyjemnie się z tego korzysta, zwłaszcza kiedy mamy gdzieś kursora do dyspozycji i tego typu rozwiązania. Oczywiście jest jakaś część programistów, którzy są antyfanami generatywnej sztucznej inteligencji. To jest kilka podgrup. Nie chciałbym od razu dyskredytować wszystkich sceptyków, bo dla niektórych języków ta sztuczna inteligencja faktycznie działa dużo gorzej. Nie wszyscy piszą w TypeScriptie, Pythonie, Javie i takich skrajnie popularnych językach, na których te modele były trenowane. Jak ktoś koduje w C++, czy w jakimś tam Haskellu, czy po prostu w językach, które są znacznie mniej popularne i mają też więcej jakichś gotcha rzeczy, w których te modele mogą się wysypywać i powodować przy tym poważne problemy. Więc to jest grupa, gdzie jestem w stanie ten sceptycyzm zrozumieć i zaakceptować. No ale też jest, wydaje mi się, nie mała grupa ludzi, która, jak fajnie Ola Kunysz na Infoszerze powiedziała podczas tej prezentacji, gdzieś tam pracują zgodnie z Job Security Pattern, gdzieś tam zakopują się w projektach, w swoich modułach, które nie przez przypadek są bardziej złożone niż muszą być i bardzo dobrze im tam w tych grajdołkach, gdzie zarabiają po 20 tysięcy i wszyscy się boją ich zwolnić, bo mają jakiś ważny element, nikt nie wie jak to działa, bo ten programista przez 5 lat bardzo o to dbał, żeby tak było. No i gdzie tam jakiś LLM, żeby on miał efektywnie pracować nad czymś. Jeszcze nie daj Boże ktoś zrozumie, co tam się dzieje w tym grajdołku. No więc wydaje mi się, że niemała grupa ludzi, no niestety z takich pobudek nie jest do końca zainteresowana tymi zmianami. I to właśnie za tym stoją te wszystkie wypowiedzi, ale te LLM-y zwracają bullshit, ale to w ogóle jest do niczego, to w moim po prostu złożonym projekcie żadnej wartości nie wnosi, i tak dalej, i tak dalej. No więc ja tam coraz bardziej takich się motywacji doszukuję, no bo ciężko mi gdzieś to skonfrontować z tym, czego doświadczam na co dzień, kiedy programuję w kursorze z krotczy i pulsonetem, no to ja tam tej niskiej jakości kodu jakoś specjalnie nie doświadczam. Tego, żeby to było ograniczone tylko do banalnych rzeczy również nie doświadczam. No jeżeli ktoś tam programuje w SpaceXie i leci na Marsa, no to może faktycznie to nie jest jakiś wielki game changer dla niego. Ale z tego co wiem, no to w Polsce większość aplikacji, która jest wytwarzana wygląda trochę inaczej. I są to no dość takie powszechne rozwiązania, nazywane często w sposób obraźliwy krudami lub jakimiś tam po prostu wariancjami krudów do tego typu aplikacji webowych, no to te modele naprawdę radzą sobie świetnie i to raczej jest wyjątkiem, kiedy one nie są w stanie nam w ogóle pomóc albo przeszkadzają niż żeby było na odwrót. No więc jakby te LM-y są, większość programistów korzysta, Mamy jakiś tam po prostu ruch oporu o różnych pobudkach, ale na poziomie procesów rekrutacyjnych to jest gdzieś tam powszechne i pewnie również ci sceptycy modeli sztucznej inteligencji w pracy podczas tych procesów rekrutacyjnych nagle będą chcieli z tych rozwiązań korzystać. Ale dziwne, ale dziwne. Jestem ciekawy jak to będzie się rozgrywało. Fajnie, że ten temat jest poruszany coraz częściej przez właśnie tak głośne, duże publikacje jak Pragmatic Engineer czy HackerRank. Podsyłałeś mi ten artykuł, no tam też jasno widać, że oni są tego świadomi. No to jest platforma właśnie taka jeszcze do tej pory w starym stylu, która właśnie służyła do tych starych procesów rekrutacyjnych, gdzie były zadania algorytmiczne, można było kogoś na żywo sprawdzać, jak sobie radzi. No oni jakby powiedzieli wprost, dobra, zdejmę sobie sprawę, że to już dłużej nie pociągnie. musimy tą naszą platformę dostosować, no i oni gdzieś tam wdrażają to AI na swoją platformę, żeby móc sprawdzić jak programy się sobie radzą w tych nowych realiach i to na pewno jest istotne. Wydaje mi się, że to jakby nie jest koniec, no bo zwłaszcza na tych stanowiskach z niższym poziomem doświadczenia, ale Nie mam gotowych odpowiedzi na wszystko. Będę na pewno się nad tym jeszcze zastanawiał. Pewnie popełnię, podobnie jak jakiś film za jakiś czas z moimi przemyśleniami na ten temat. Tym jest to mega ciekawe i właśnie to, że to nas zmusza do tej refleksji i przełamuje ten status quo tak oddolnie na poziomie rekrutacji. To jest istotne dla firm, bo programistów musimy zatrudniać, ktoś tam po prostu w tych firmach musi pracować, no i nie będziemy w stanie dłużej udawać, że tu nie zaszło żadna zmiana względem tego, co się działo przed premierą, czy ta GPT?

Przemek:

Tutaj w stu procentach się zgadzam. Tutaj mogę tylko dodać jedną anegdotkę z naszego katowickiego InfoShare’a, którego robiliśmy w zeszłym tygodniu. Mamy tam taką prelekcję, z którą teraz objeżdżamy różnego rodzaju cyrki, festiwale i eventy, gdzie staramy się mówić, że ta generatywna sztuczna inteligencja już jest. Jej potencjał rośnie. Ty jako programista prawdopodobnie będziesz musiał się przygotować do tych zmian, które ciebie czekają, które nadchodzą. Anegdotka polega na tym, że w pewien sposób w troszkę złą stronę skręciła ta nasza prezentacja w Katowicach i to z mojej winy. Po prezentacji podszedł do mnie jeden ze słuchaczy, Piotr, pozdrawiam, i on mówi, chłopaki, ale wy wiecie, że to jest dużo lepsze niż wy mówicie. Ja tam starałem się powiedzieć, że wiemy i chcieliśmy powiedzieć, że to jest dużo lepsze niż gdzieś tam konsensus w tym naszym środowisku. Jak to nie wybrzmiała z tej naszej prezentacji to sorry, ale właśnie o tym była ta prezentacja, że to jest dużo lepsze niż myślicie. To jest dużo lepsze niż myślicie. Nawet jak zdarzyło nam się tam pomarodzić na no-code i powiedzieć, że jeśli nie no-code to co, to wniosek tam nie jest taki, że nic. Wniosek jest taki, że po prostu pojawia się AI, musisz się dostosować, ta branża będzie po prostu przechodzić tą transformację, o której mówimy i tak to jest lepsze niż wielu się wydaje. Po prostu taki jest tutaj wniosek.

Marcin:

Najzwyczajniej w pełni się zgadzam. Jeżeli nie korzystałeś z Klot czy Pulsonet, który miał premierę w czerwcu tego roku, jeszcze ostatnio był Update, który poprawił możliwości tego modelu, to nie wiesz do czego LLM dla programistów są zdolne, bo to naprawdę jest nowa jakość. To nie jest to samo, co oferował ChartGPT, zwłaszcza 1,5 roku temu w darmowej wersji, gdzie mieliśmy GPT 3.5 Turbo. To jest ogromna, ogromna różnica. Ja osobiście też miałem sceptyczne podejście. Nie uważałem, że to jest aż tak dobre. Jeżeli korzystasz tylko i wyłącznie z Copilota, który już teraz niby jest ten wybór modeli, nie testowaliśmy jeszcze tego na szerszą skalę, Będziemy to robili, bo najpewniej też Spoja Alert wypuścimy, kurs co-pilota. Zastanawiamy się nad tym, bo wiele osób jest na tego co-pilota, chcąc, nie chcąc, skazani w firmach. To rozwiązanie widać, że nadgania jest coraz lepsze. Czy jest na poziomie kursora? Pewnie nie, ale czy już jest na poziomie takim, że można bez bólu korzystać Być może, jeżeli w naszych testach tak wyjdzie, to z chęcią dla Was taki kurs również stworzymy. Ale o czym mowa? Ten kooperator również nie oddaje tego, co mamy do dyspozycji właśnie w kursorze, gdzie te prompty są odpowiednio opakowane, gdzie możemy korzystać z innych modeli niż te, które oferuje nam Microsoft. Co prawda te modele Antropica już też są tam dostępne. Chociaż nie dla wszystkich, jak dopytuję, to jeszcze wcale nie wszyscy mają ten wybór modeli dostępny. Oni robią jakiś gradual rollout. Miało to trwać tydzień, minął miesiąc. Jeszcze nie wszyscy to mają, więc ciężko powiedzieć. No ale jeżeli Boe jest zawiedziony copilotem, no to to też jakby naprawdę… branża, ten state of the art, ten top jest znacznie do przodu względem tego, co się może wydawać, jeżeli ktoś skorzystał tylko z czata GPT w darmowej wersji, czy też z co-pilota w pracy. Więc to idzie naprawdę do przodu i czerwiec tego roku był jakimś momentem przełomowym ze względu na krotrzy i pulsonet. Jak sobie to wepniemy w kursa, to naprawdę się dzieją fajne, fajne rzeczy.

Przemek:

Mamy zresztą potwierdzenie tego, o czym mówimy na The Pragmatic Engineer. Mamy potwierdzenie tego, że Cursor coraz bardziej przebija się do tego programistycznego mainstreamu. Ten mainstream to jest w ogóle, myślę, taki motyw przewołań. Znaczy to, o czym my mówimy, to o czym mówimy od dwóch lat w tym podcaście, to po prostu będzie za jakiś czas mainstream. I my też zaraz zmienimy tonację, zmienimy narrację, przestaniemy nawoływać, bo po prostu wszyscy będą z tego korzystać. Ale jak nas słuchacie, to myślę, że jakąś tam przewagę macie, bo bardziej świadomie do tego tematu podchodzicie. Wracając do Pragmatic Engineering, tam też pojawiło się pytanie do społeczności, około 150 inżynierów odpowiedziało, z czego tak naprawdę korzystasz, no i zwycięzca jest jeden albo dwóch, tak naprawdę Cursor i Copilot to są te narzędzia, które cały czas liderują, przodują w tego typu badaniach społeczności, no i my też to widzimy, widzimy, że zmienia się vibe na konferencjach, widzimy, że coraz więcej osób Przyznaję się do tego, że korzysta z tych narzędzi to już nie my musimy przekonywać, to wręcz nas się przekonuje, tak jak w Katowicach się okazało. No i po prostu tutaj Pragmatic Engineer Gergely Orosz też to potwierdził. Z takich ciekawostek, z takich szybkich newsów, przez które jeszcze możemy przejść, pojawiło się nowe badanie dotyczące tego, jak Copilot wpływa na jakość, skalowalność, bezpieczeństwo tworzonego kodu. Oczywiście firma, która stała za tym badaniem, ma mocny interes w tym, żeby to badanie wyszło pozytywnie. Nie ma co ukrywać, jest to firma Microsoft i druga firma GitHub. Natomiast obie te firmy, myślę, że głównie jednak GitHub, sprawdziły, czy można zauważyć jakieś różnice w kodzie, który dostarczają programiści, którzy korzystają, kontra nie korzystają z Copilota. Badanie polegało na tym, że 202 programistów mających powyżej 5 lat doświadczenia zostało zaproszonych właśnie do takiego eksperymentu, mieli rozwijać endpointy w aplikacji webowej. Było oceniane to, w jaki sposób oni to robią, jak szybko to robią, jak wygląda ich kod i również czy są te testy, o których ty Marcin mówiłeś. Ta statystyka, którą GitHub chwali się najbardziej dotyczy tego, że grupa, która korzystała z Copilot’a miała o 5% większe szanse na approve pull request’u, abstrahując od tego, jak ten kod wygląda, abstrahując co tam się działo po drodze, o tym też jeszcze możemy zaraz pogadać, no ale GitHub twierdzi, że na tej grupie, na podstawie tego badania, gdzie mieliśmy dwie grupy po około 100 deweloperów, ta setka, która z Copilot’a korzystamy, ma po prostu większe szanse na approve pull request’u. W badaniu też stwierdzono, że dzięki skróceniu tego czasu, który poświęcamy na te podstawowe funkcje, na te podstawowe elementy aplikacji, programiści mogą się bardziej skupić na tym, jak ja to określam, na co wskazuje ich pensja. Czyli jeśli zarabiasz dużo, to masz robić duże problemy, poważne problemy, masz się skupiać na nieoczywistych problemach, No i tutaj w pewnym sensie, jak GitHub wspomina, to w tym badaniu wyszło. Jak ty Marcin do tego podchodzisz? Czy traktować to z dystansem? Czy jest to jakiś kolejny sygnał? Czy jest to jakiś po prostu kolejny data point? Jak to zdrowo po prostu potraktować?

Marcin:

Jakieś mam sceptycyzm co do tego typu badań. Jeżeli zleca i wykonuje je firma, która oferuje wprost dokładnie rozwiązanie, które omawia, to ciężko tutaj mówić o jakieś dyscyplinie naukowe. Ciężko to tak naprawdę nazywać badaniem. To jest raczej materiał marketingowy firmy przeprowadzony w jakichś tam powiedzmy mniej lub bardziej kontrolowanych warunkach, które pokazuje, że produkt jest dobry. No to oczywiście już wszystko zależy na ile firma jest etyczna, moralna, na ile gdzieś tam ta statystyka jest godna zaufania. Ciężko tutaj powiedzieć na ile mamy do czynienia z danymi, a na ile z jakimś headpickingiem i totalną abstrakcją. Nie będę tutaj wydawał żadnych osądów, bo ciężko mi się do tego odnieść. Do czego się odniosę, to do drugiego badania, które Raz jeszcze podesłała mi Ola Kunysz i również się w swojej prezentacji na InfoShare na nie powoływała. Jest taka firma jak Uplevel, która również badała wpływ generatywnej sztucznej inteligencji na programowanie i tam wyniki były skrajnie inne. Uplevel to jest platforma do śledzenia produktywności programistów i wpływu różnych praktyk, procesów na to, jak programiści pracują. Oni tam przeprowadzili badanie na 800 deweloperach. No i ich zdaniem generatywna sztuczna inteligencja nie ma żadnego wpływu na efektywność programistów i na ich dobrostan. Jedyne co się zmienia to ilość bugów. Rzekomo z kopalutem jest ich 40% więcej. Jeżeli chodzi o wydajność, jakaś poprawa czasu cyklu, przepustowość pijarek to rzekomo nie ma żadnego wpływu. Przynajmniej na podstawie ich wyników, ich badań. W to również mi ciężko zawierzać takim danym, bo wiem jak to wpływa na naszą pracę, rozmawiam też z ludźmi. Albo żyjemy w jakimś efekcie po prostu potwierdzenia confirmation bias, podoba nam się to, wygląda, że działa, a wcale nie działa, albo tutaj ktoś też po prostu albo coś niepoprawnie mierzy, albo ma interes w tym, żeby te dane były takie, a nie inne. Jak widać, żyjemy w dwóch różnych totalnie rzeczywistościach. Copilot po prostu zmienia świat, a inne firmy twierdzą, że nic nie zmienia poza większą ilością błędów. Prawda pewnie jest gdzieś po środku. Wydaje mi się, że to zależy od tego, kto z tych narzędzi korzysta, w jaki sposób jest kompetentny. Na pewno to widzimy też na naszych szkoleniach. Na początku to podejście programistów często nie jest tak dobre, jak po 20, 30, 40 godzinach korzystania z tych narzędzi i ze znajomością dobrych i słabych stron modeli, znajomości określonych technik prompt engineeringu, właściwych heurystyk, nawyków. To jest coś, czego po prostu trzeba się nauczyć. Jeżeli wzięło się osoby, które totalnie nie miały styczności z genetywną sztuczną inteligencją i np. przez kilka godzin się weryfikowało, czy to miało pozytywny czy negatywny wpływ na ich pracę, no to wtedy jestem w stanie uwierzyć, że może jedyne co powstało to dodatkowe bagi, chociaż to również jest gdzieś tam grubymi niczmi szyte tak naprawdę. Więc czas tak naprawdę pokaże. Nasze doświadczenie mówi zupełnie co innego. Doświadczenie też naszej społeczności mówi co innego. Będziemy, czekamy tak naprawdę na większą liczbę badań. Fajnie, gdyby to robiły jakieś niezależne jednostki akademickie, które się na prowadzeniu badań znają i nie mają przy okazji żadnego interesu w tym, jakie będą te wyniki. Oczywiście, czy szybko się takich badań doczekamy? Ciężko powiedzieć, no bo często badania uniwersyteckie również są sponsorowane przez korporacje i to nie jest tylko problem badania efektywności genetywnej i sztucznej inteligencji, ale również tak naprawdę większości dziedzin nauki. Już wiele mieliśmy głośnych dram z dziedziny psychologii, socjologii, gdzieś się okazywało, że badania po prostu były prowadzone na zamówienie bądź pod tezę określonego doktora, profesora. I tak dalej, i tak dalej. To tylko pokazuje, że temat nauki i badań nie jest taki prosty, jak byśmy chcieli. Póki co zachęcam, żeby sprawdzać samemu organoleptycznie, z własnego doświadczenia. My mamy doświadczenie, jakie mamy. Dowoźmy projekty, których byśmy nie dowoźli ostatnio. Przemek napisał fajny post o tym, jak dowieźliśmy podgląd wyniku realizacji zadań w naszym najnowszym kursie o PAN-u i TypeScript. Ja tutaj trochę zawtulowałem. żeby zamplifikować to przesłanie. Tym niemniej u nas w małej, w innej firmie naprawdę TLM robią ogromną różnicę, a jak rozmawiamy z kolegami, którzy cały czas pracują w większych firmach, no to również są zadowoleni, wnosi im to wartość. Jakie to są dokładnie wartości, jakie to są dane, no to czas pokaże. Może Przemku przejdźmy jeszcze szybko do tych naszych newsów. Jak tam wygląda sytuacja? chińsko-amerykańska w zakresie generatywnej sztucznej inteligencji?

Przemek:

Sytuacja chińsko-amerykańska po prostu postępuje, można powiedzieć. Przynajmniej jeśli nie programiści, jeśli nie wszyscy liderzy IT pogodzili się z faktem, że warto się tym tematem zainteresować, to na pewno kongresmeni w Stanach Zjednoczonych już są przekonani, że to powinien być kierunek tego, czym powinno się zajmować na szczeblu rządowym. Ale o tym za chwilę. Przede wszystkim widzimy dużą presję, duży napór rozwiązań open source z Chin, które zaczynają działać niepokojąco podobnie do tego, co myśleliśmy, co uznawaliśmy za liderów, czyli np. do rodziny O1 od OpenAI. A tymi dwoma rozwiązaniami, o których chcemy powiedzieć, to są DeepSeek R1 i Qwen with Questions (QWQ). Tutaj oczywiście sinolodzy mogą nas bashować, jeśli źle wymawiamy nazwę Quinn albo Gwen albo Quill, bo też widziałem takie wypowiedzi. W każdym razie mamy mieć dwa modele open source, które działają bardzo podobnie do modelu, do modeli z rodziny O1 od firmy OpenAI. Na czym to działanie ma polegać? Ano na tym, że wydłuża się czas oczekiwania na odpowiedź, a modele w tym czasie generują dodatkowe kroki, dodatkowe myśli, dodatkowe obserwacje, które mają pozytywnie wpłynąć na jakość generowanych odpowiedzi. Jeśli chodzi o DeepSeek’a to mamy do niego dostęp przez API, jeśli chodzi o Gwen’a albo Quen’a to mamy do niego dostęp przez Hugging Face’a. O ile wiem to DeepSeek w tej formie Open Source jeszcze się nie pojawił, prawda Marcin? Ta R1 mamy czat, na którym możemy wymieniać 50 wiadomości dziennie. Co ciekawe, tam właśnie mamy dostęp do tego rozszerzonego wnioskowania, możemy sobie obserwować łańcuchy myśli, tę słynną technikę, czy też ten słynny proces chain of thought, co jest przeciwieństwem działania O1, gdzie OpenAI jakby świadomie w swoich design dokumentach ukrywa po prostu to, jak ten model działa. Myślę, że domysł jest taki, że po prostu jest to w pewnym sensie przewaga konkurencyjna, no tutaj twórcy DeepSeeka uważają inaczej. Tym niemniej widać, że presja ze strony Chin rośnie. Myślę, że dodatkową presję powoduje fakt, że te modele, wagi tych modeli mają być udostępnione w formie open source. No i rząd Stanów Zjednoczonych, Kongres Stanów Zjednoczonych postanawia się temu tematowi przyjrzeć. Mamy taką komisję kongresową, która zajmuje się relacjami z Chinami. Ona niedawno podsumowała bieżący rok, proponując również strategię na kolejne miesiące. No i jednym z takich głośniejszych wniosków, czy takich głośniejszych zaleceń, które ta komisja umieściła w swoim raporcie było to, żeby rozpocząć pracę nad nowym projektem Manhattan. Dla przypomnienia projekt Manhattan to był projekt rozwijany w trakcie II wojny światowej. Jego efektem była bomba atomowa. Ostatnio pewnie wielu z Was w kinach było i oglądało jak ten projekt Manhattan wyglądał od środka. No tutaj mamy propozycję kolejnego projektu Manhattan, tym razem W kontekście sztucznej inteligencji pojawia się informacja o tym, że Chiny wiedzą, że technologia to jest po prostu sposób na zdobywanie przewagi w tym świecie geopolityki, strategii itd. No i Stany Zjednoczone muszą zrobić wszystko co możliwe w tym, łączyć ośrodki publiczne z prywatnymi, żeby po prostu nadganiać i oczywiście zyskiwać pozycję lidera, bo nie chodzi o to, żeby na tym samym poziomie działać, tylko żeby tą pozycję lidera Myślę, że to jest jeden z takich głośniejszych statementów, jedno z takich głośniejszych oświadczeń, które pojawiły się właśnie w środowisku Kongresu Stanów Zjednoczonych, no bo mamy jasny sygnał tego, że to nie jest temat na podcasty, to nie jest temat na rozmowy, na meetupach, na konferencjach, to jest ważny strategicznie temat, który będzie gdzieś tam podejmowany na poziomie państw. O lobbyingu już wielokrotnie mówiliśmy w naszym podcaście, mówiliśmy o tym, jak Unia Europejska podchodzi do tego tematu. no tutaj Stany Zjednoczone prawdopodobnie kolejny bieg wrzucą, żeby po prostu te Chiny gonić. No a co przed nami? No prawdopodobnie kontynuacja badań w tym kierunku Chain of Thought, tego tak zwanego testu Time Compute. Modele mają dochodzić do pewnego rodzaju ściany, jeśli chodzi o obecną architekturę. Teraz właśnie nacisk ma być kładzony na to, żeby ich działanie wyglądało inaczej, żeby właśnie kosztem tego dodatkowego czasu oczekiwania na odpowiedź podnosić jakość tych odpowiedzi. No i to chyba będzie taki głośny temat i badań i produktów w kolejnym roku.

Marcin:

Zdecydowanie tak. Niewątpliwie w przeciągu najbliższych tygodni, miesięcy doczekamy się podobnych modeli od Antropica, Google’a i innych wiodących graczy, jeżeli chodzi o produkcję LLM’ów z zakresu Frontier. To też potwierdza tezę, którą stawiał Chamath w podcaście All In. Wygląda na to, że tworzenie topowych elemów będzie nadzwyczajnie wymagającym i niewdzięcznym biznesem, bo jak widzimy ciężko tutaj o jakąś stałą i stabilną pozycję lidera. Zwykle to co tworzy OpenAI jest odtwarzane w przeciągu kilku miesięcy przez konkurencję i to jest taki biznes. mimo dużej innowacyjności wymaga on ogromnego kapitału, a zyski gdzieś tam idą to the zero, to the zero, no bo wszyscy gdzieś tam siebie gonią, oferują jeszcze niższe ceny, jeszcze lepsze warunki. No i teraz niestety bardzo możliwe, że firmy chińskie, które są dopalane przez budżety państwowe będą w stanie w tej konkurencji radzić sobie jeszcze lepiej niż te prywatne organizacje z zachodu. Więc jest to szczególnie nieciekawe z perspektywy biznesowej, nie zazdroszczę. Samowi, Altmanowi czy Dario Amodejowi, pozycji w której są, bo mimo, że robią naprawdę fajne rzeczy, no to mogą gdzieś tam za kilka lat wcale nie być w jakiejś super pozycji, mimo tych kosmicznych wycen i tego, że są na języku wszystkich, na główkach i tak dalej, to wcale nie mogą być takie fajne biznesy jakim chociażby było Google 20 lat temu. Czas pokaże. Tym niemniej są pomysły, są nowości. Te modele Test Time Compute na pewno wnoszą nowe możliwości. Ja coraz częściej korzystam z O1 Mini w kursorze i to naprawdę wnosi wartość, zwłaszcza w tych zastosowaniach agentowych, tak zwanych, gdzie oddajemy modelowi większą sprawczość. Niewątpliwie takie modele mogą nas przenieść na kolejny poziom tego autonomicznego programowania przez AI. Będzie się działo w przyszłym roku. Będziemy też na bieżąco Wam mówili o tych nowościach, o tych nowych możliwościach. Mamy jeszcze na koniec kilka szybkich newsów. W aplikacji 11Labs 11Reader To jest firma z polskimi korzeniami, polskich założycieli, więc oczywiście kibicujemy, śledzimy. W aplikacji Eleven Leader, dostępnej na iOS, mamy nową funkcję tzw. Genyf M, czyli na podstawie dowolnych artykułów, dowolnej treści tekstowych, czy to linku, czy to PDFa, możemy sobie generować podcast. Te podcasty są dostępne w w różnych językach, 32, tak mówi Eleven Up. No i wgrywamy materiał i generuje nam się podcast z dwoma AI hostami. Wygląda to atrakcyjnie, przy pierwszą życiu jest bardzo fajna animacja, jest fajny UX, ale minus jest taki, że na ten podcast czekamy stosunkowo długo, około 5 minut w moich testach. No i minus też jest taki, że dostajemy podkaz w języku, w którym był ten oryginalny materiał. Nie możemy się dynamicznie przełączać między językami, więc jeżeli masz artykuł po angielsku, no to podkaz będzie po angielsku. Jeżeli masz artykuł po polsku, to podkaz będzie po polsku. No więc tu widzimy, że podchwycili Fajnie to co rozpoczęło Notebook LM, co tak też przeszło trochę bez echa, w ogóle ten produkt przeszedł bez echa. Google po raz kolejny strzela sobie w kolano, tak jak nie potrafili chociażby dobrze rozpromować Angulara. Teraz też gdzieś tam promują w nieumiejętny sposób Gemini, które gdzieś tam więcej miało tego chyba negatywnego niż pozytywnego PR-u póki co. A takie naprawdę fajne rozwiązania jak Notebook LM, które pozwalają się szybciej uczyć, generować podcasty, naprawdę innowacyjne, fajne rzeczy. no to trzeba gdzieś tam dość głęboko w tej bańce tak jak my być, żeby w ogóle widzieć, że coś takiego istnieje, a szkoda. No ale być może Eleven Labs to wykorzysta, zrobią lepszy marketing, opowiedzą lepszą historię i to oni gdzieś tam przejdą w takiej ogólnej świadomości konsumentów jako twórcy tego typu generatywnych podcastów. Na pewno jest to fajny sposób, żeby zachęcać ludzi do nauki, do rozwoju. Ja tego typu feature’om zawsze kibicuję. Póki co jest to dobre, nie jest to jakieś tam powalające. Notebook LM robi na mnie większe wrażenie niż 11 Leader Gen FM. Głosy są bardziej naturalne, więcej emocji i szybciej to się po prostu generuje. Ale myślę, że trzeba dać trochę czasu. i ten poziom cały czas będzie rósł. Mamy również kilka nowości w czacie GPT. Przemek, opowiedz, co użytkownicy planów premium mają w czacie GPT od listopada do dyspozycji.

Przemek:

W czacie GPT przede wszystkim zmiany w aplikacji desktopowej. Może nie przede wszystkim, bo zmienia się czat GPT w regularny sposób, ale jeśli korzystacie z aplikacji desktopowej, A tak się składa, że autorzy tego podcastu korzystają, no to pewnie widzieliście rozszerzenia interfejsu użytkownika. Przede wszystkim mamy ten connection, to połączenie między naszymi środowiskami programistycznymi a interfejsem samego czatu. Ma to wyglądać w ten sposób, że właśnie aplikacja Chata GPT, sam model, z którym rozmawiamy, staje się takim operatorem naszego edytora. Przyznam szczerze, że jako zwolennik kursora nie widzę tutaj niestety sposobu na to, żeby kursora wybrać. Widzę Visual Studio Code, więc z tej opcji jeszcze nie korzystałem. Natomiast muszę powiedzieć, że ten experience, te doświadczenia z aplikacji desktopowej regularnie się podnosi i staje się coraz lepszy. Ostatnio z Marcinem rozmawialiśmy o tym, że jest już teraz opcja na to, żeby ustawić sobie po prostu skrót klawiszowy na swojej maszynie Zaprosić tego chata GPT do takiej bieżącej współpracy nad tym, co robimy. Pojawia się w efekcie tego skrótu klawiszowego takie okna, jak gdybyśmy korzystali np. z RayCasta, czy z innej wyszukiwarki w systemach np. macOS. No i po prostu coraz częściej z tego chata GPT można korzystać. Na aplikacji desktopowej mamy też Advanced Voice Mode, czyli to rozszerzenie trybu głosowego, dzięki czemu zdecydowanie łatwiej te polecenia można wydawać. Przeszukiwanie internetu znowu staje się dostępne. Mieliśmy zapowiedzi Searcha, mamy teraz dedykowaną ikonkę. Ty jak Marcin widzę w naszych notatkach jesteś fanem tego rozwiązania w porównaniu do Perplexity.

Marcin:

Czy jestem fanem? Korzystam od czasu do czasu, przydaje się czasami nawet, bo możemy sobie świadomie załączyć ten typ klikając w taką ikonkę Globusa i wtedy ten ChargePT faktycznie przeszukuje sieć, a czasami nawet to się załącza samodzielnie. Ja dzisiaj gdzieś tam zadawałem takie pytanie prawne i ChargePT sam podjął decyzję, że musi sobie tą informację o regulacji w Polsce dociągnąć z internetu. I to działa naprawdę, naprawdę nieźle. Myślę, że właśnie równie dobrze jak Perplexity. które cały produkt ma zbudowane wokół tego. Korzystałem z niego przez kilka dobrych miesięcy również w planie PRO, który gdzieś tam wyrwałem za darmo na trzy miesiące. Jak na początku byłem gdzieś tam bardzo pod wrażeniem, to potem kilka razy, może niefortunnie się naciąłem na dość duże halucynacje i przyjnaczenie statystyk. I trochę straciłem zaufanie do tego produktu, no bo tak jak w czasie GPT i ogólnie w klodzie jestem na to uczulony i gotowy i jakby biorę to w koszta, no to jeżeli mam produkt, który mówi mi, że jest searchem i daje mi wyniki z internetu i się odwołuje do tego, a podczas gdy widzę statystykę i zupełnie co innego w materiale źródłowym, no to po co mi to, nie? No to już jakby z tego Google’a mogę sobie sam skorzystać. Wiadomo, może jest i trochę szybciej, no ale jakoś takie miałem podejście, że to Perplexity jeszcze nie jest tak dobre, jak jakby się mogło wydawać. Wydaje mi się, że ten search w czacie GPT oferuje bardzo, bardzo podobny poziom. Może ilość materiałów zaindeksowanych jest trochę mniejsza, bo też widzę, że jak robię searcha w czacie, to on zwykle do dwóch, trzech materiałów się odwołuje w Perplexity. No to liczba średnio wykorzystanych materiałów była Wyszedł i okazało się, że mają większy indeks materiałów, z których korzystają. Widzimy bezpośrednią konkurencję pomiędzy tymi firmami. Jestem ciekaw, czy Perpexity wytrzyma pod tym naporem. Sam produkt jest mega ciekawy. Po rozmowie Leksa Friedmana, CEO tej firmy, ciężko im nie kibicować. Widać, że to jest ktoś, kto ma misję, kto chce edukację. szerzyć i zachęcać ludzi do pogłębiania wiedzy w sposób tak interaktywny, więc pomysł na produkt jest super, ale póki co wykonanie bardzo podobne jak w czacie GPT właśnie. Dobra, no to dobijamy do brzegu. Miał być krótszy odcinek. Wyszło jak zwykle, przekroczyliśmy godzinę. Mamy nadzieję, że był to dla Was odcinek wartościowy, ciekawy. Jeżeli tak, to raz jeszcze zachęcamy, żeby nas ocenić na 5 gwiazdek, czy to na Spotify, czy to na Apple Podcast. Dzięki temu zyskujemy większą widoczność, większą popularność. Słucha nas już niemało osób, ale do sufitu jeszcze daleko, daleko. Więc każdy taki gest, każde kilka minut poświęcone na to będzie dla nas niesamowicie wartościowe i z góry dziękujemy. Dzielcie się też tym podcastem na social media ze znajomymi, którzy są zainteresowani generatywną sztuczną inteligencją. z punktu widzenia technologii branży IT. Raz jeszcze zachęcamy do umawiania się na warsztaty opanuj.ai łamane na szkolenia, tam znajdziecie szczegóły, a jeżeli jesteście programistą, który chce opanować najlepszy edytor AI jakim jest kursor, to można to robić razem z nami opanuj.ai łamane na kursor. Do końca tygodnia absurdalnie niska cena 149 złotych, potem już tylko nadal śmiesznie niska cena 199 zł. Kurs jest podobno warty około 400 zł, więc kupując go oszczędzacie 200 zł. Niesamowicie dużo przydatnej wiedzy, którą zebraliśmy przez te dwa lata, trzymania ręki na pulsie, testowania różnych rozwiązań. Warto z tego skorzystać i pracować efektywniej, przyjemniej i nie tracić czasu na banalne rzeczy, tylko robić coś fajnego właśnie z pomocą. Kursora. Dziękujemy za uwagę. Do usłyszenia już w styczniu.

Newsletter Opanuj AI

Subskrybuj ręcznie selekcjonowane materiały z obszarów AI i rynku nowych technologii, które pomagają dowozić lepsze rezultaty i budować kulturę innowacji

Zapisując się do newslettera akceptujesz naszą politykę prywatności.

W każdy poniedziałek
Otrzymuj podsumowanie najważniejszych informacji z branży AI i nowych technologii. Gwarantujemy zero spamu i tylko wartościowe treści.
Tylko najlepsze materiały
Materiały zamieszczane w newsletterze przechodzą proces selekcji, gdzie wymagamy jakości i możliwej do wykorzystania wiedzy.