PL | EN
01 lutego 2023
Czy zastąpią nas roboty?
#54

Czy zastąpią nas roboty?

W dzisiejszym odcinku porozmawiamy z Wami o tym, o czym głośno jest na całym świecie: o AI, czyli sztucznej inteligencji, która w ostatnim czasie wdarła się przebojem do mediów. Omówimy najnowsze przełomy w głębokim uczeniu się oraz to, jak zmienia się oraz w czym już teraz pomaga nam sztuczna inteligencja. Które branże stracą a które zyskają na jej rozwoju?

Słuchaj także na

#54
Czy zastąpią nas roboty?

Słuchasz Outriders Podcast – podcastu o świecie, w którym opowiadamy o wydarzeniach międzynarodowych wpływających na naszą rzeczywistość. Reportaże i audycje nagrywamy na miejscu. Poznajemy, odwiedzamy regiony. Jesteś z nami tam, dokąd podróżujemy.

Zapraszam!
Witamy w kronikach sztucznej inteligencji.

A w tym odcinku naprawdę jesteś z nami. Ja jestem na stacji benzynowej gdzieś w okolicach Połtawy, bo rozpoczynają się prace nad naszym kolejnym projektem interaktywnym, który będzie poświęcony Ukrainie. Na wstępie chciałem podziękować tym wszystkim, dzięki którym ten podcast powstaje, a są to oczywiście nasi Patroni i Patronki. W ubiegłym tygodniu dołączyło do nich sześć osób, więc witam Was w tym szlachetnym gronie. Zachęcam oczywiście do dołączania. W serwisie Patronite możecie zdecydować o wysokości wpłaty. To Wy decydujecie, my przyjmujemy wszystko. I bardzo, bardzo dziękujemy.

W dzisiejszym odcinku nie odwiedzamy jednego wybranego regionu czy kraju, ale porozmawiamy z Wami o tym, o czym głośno jest na całym świecie: o AI – sztucznej inteligencji. To kiedyś przewijało się w filmach science fiction. Ostatnio być może spotkaliście się w mediach społecznościowych z pewną modą na wrzucanie screenów z ChatGPT, czyli czegoś, co w naszej mainstreamowej przestrzeni nagle się spopularyzowało, przekonując nas, że to AI faktycznie może działać. Jedni mówili to od dawna, drudzy powątpiewali, ale umiejętności ChatGPT wprawiły wielu w pewne zakłopotanie. Rozpoczęło to zupełnie nową dyskusję. I my dzisiaj do niej chcemy dołączyć. Ja nazywam się Jakub Górnicki, odcinek wyprodukowała Zuzanna Olejniczak, a zrealizowała Ewa Dunal z Sounds and Stories.

Witamy w kronikach sztucznej inteligencji, gdzie zagłębiamy się w jej świat, badamy postępy i wyzwania tej rozwijającej się technologii. Dołącz do nas, słuchaj opinii ekspertów, badaczy i liderów opinii, którzy kształtują jej przyszłość. W tym odcinku omówimy najnowsze przełomy w głębokim uczeniu się oraz to, jak zmieniają one sposób, w jaki wchodzimy w interakcje z technologią. Usiądź więc wygodnie, zrelaksuj się i przygotuj się na zaskoczenie potęgą sztucznej inteligencji.

Ten wstęp został napisany właśnie przez wspomniany ChatGPT od OpenAI. Zadaliśmy mu, żeby napisał wstęp odcinka poświęconego właśnie sztucznej inteligencji. I on stworzył coś takiego. Sami możecie ocenić, na ile to było dobre albo nie. Określenie „AI”, czyli Artificial Intelligence, po raz pierwszy pojawiło się w 1956 r. WABOT-1, taki pierwszy inteligentny robot humanoidalny, został zbudowany z kolei w Japonii w 1972 r. Różnego rodzaju entuzjaści sztucznej inteligencji wierzyli, że komputery będą w stanie prowadzić rozmowy, tłumaczyć języki, interpretować obrazy i rozumieć jak ludzie. Być może część z Was pamięta, że w 1997 r. Garri Kasparow przegrał z komputerem IBM partię szachów. Było to wielkie wydarzenie. Uważa się je za moment przełomowy w rozwoju technologii, a także wypierania człowieka z niektórych gałęzi zawodów przez różnego rodzaju roboty i maszyny.

W Polsce z kolei syntezator mowy Ivona pojawił się na rynku w lutym 2005 r. – 18 lat temu. Ivona stała się trochę takim memem – tak określamy różnego rodzaju głosy, które brzmią sztucznie bądź dziwnie. Ostatnio coraz częściej wydzwaniają do nas automaty marketingowe, można dostać czasem, że tak powiem, cholery od tego, bo sami wiecie, jak to jest, kiedy dostaje się taki telefon i nie ma do końca pewności, czy faktycznie po drugiej stronie jest człowiek. Ale Iwona z miejsca stała się hitem, przemówiła lepszym głosem niż jej poprzednik Spiker. Nie było to przypadkowe, bo od samego początku syntezator pozwalał na automatyczne przekształcanie tekstu na mowę o naturalnym ludzkim brzmieniu. Przed wypowiedzią analizował podany tekst, interpretując go przy zastosowaniu m.in. algorytmów sztucznej inteligencji.

Na początku pokrótce zdefiniowaliśmy sobie, czym AI jest, czym nie jest, bo czasem wszystko, co wydaje się trochę robotyczne, zaczyna być tak określane, a wcale takie nie jest. Ja, będąc w drodze, złapałem też Artura Kurasińskiego, który od lat zajmuje się technologią, i poprosiłem go, żeby zdefiniował nam, czym to AI jest.

Artur Kurasiński: Generatywne AI jest czymś nieprawdopodobnie wzbogacającym nasze życie. I każdy może się o tym przekonać, kto odpali sobie ChatGPT albo wejdzie na stronę Discorda i pobawi się trochę Midjourney. Tu nie potrzeba przeszkolenia, znajomości kodowania, odbycia kilku kursów. Wchodzimy, odpalamy takie narzędzie, bawimy się i jego sprawczość jest przed naszymi oczami. Więc ja bym tutaj nie nazywał AI technologią, która dopiero ma coś pokazać. Wręcz odwrotnie. To jest jedna z niewielu technologii, które dają się szybko zaadaptować, co jest ogromną siłą, co pokazuje, jaką gwałtowną reakcję rynkowo już wywołał ChatGPT.

Artur przyznaje, że AI różni się od wielu wcześniejszych technologii ze względu na swój demokratyczny dostęp. Jak tłumaczy, każdy człowiek ma możliwość skorzystania i zastosowania AI w praktyce.

A.K.: W przeciwieństwie do buzzwordów typu Web3, kryptowalut czy blockchain, czyli technologii, które oczywiście mają też jakieś realne zastosowanie, ale w większości przypadków były one sprzedawane jako coś nieprawdopodobnie nam potrzebnego, istotnego i niesamowicie wartościowego, podczas gdy szary klient, przeciętny Kowalki nie bardzo miał możliwość zrozumienia, tym bardziej zastosowania w praktyce tych przykładów.

„Jest bardzo dużą zmyłką nazywanie modeli tego rodzaju sztuczną inteligencją. Bo tej inteligencji tutaj za dużo nie ma” – Gosia Fraser to dziennikarka specjalizująca się w zagadnieniach prywatności i cyberbezpieczeństwa, autorka pierwszego w Polsce podcastu o filozofii technologii TECHSPRESSO.CAFE. Tłumaczy nam i przybliża również kwestie związane ze sztuczną inteligencją.

Gosia Frazer: W obiegowym rozumieniu sztuczna inteligencja to taka czarna skrzynka, która uczy się różnych rzeczy, ma zdolność samodzielnego wnioskowania, oceny niekiedy i produkowania wniosków bądź treści, bądź różnorakich kombinacji wcześniej wytrenowanych, wyuczonych przez siebie materiałów. W praktyce są to jednak algorytmy, które nie zawierają w sobie absolutnie niczego tajemniczego, niczego niezwykłego. Po prostu są to tak naprawdę rezultaty pracy analitycznej, modeli, które przetwarzają treści, jakimi wcześniej je nakarmimy.

W przypadku modeli językowych, takich jak Chat-GPT, który przebojem wdarł się w końcówkę ubiegłego roku, moda na niego trwa jeszcze do tej pory. Modele przetwarzają przede wszystkim treści tekstowe. W przypadku innych modeli, takich jak Midjourney czy Dall-E2, które generują obrazy, tą wytwarzaną treścią są przede wszystkim różnego rodzaju formy wizualne. Mimo że AI na świecie funkcjonuje już w wielu branżach od wielu lat – często pojawia się w filmach, serialach, grach – w ostatnim roku wyszło z tej sfery science fiction. Pewnie widzicie to już nawet w różnych serwisach, czasem technologicznych, które analizują nasze zapytania supportowe albo starają się podpowiedzieć jakieś rozwiązanie. O modelach językowych słyszano już w latach 2015–2016, a marzeniem człowieka jest stworzenie modeli, które będą imitować to, co my umiemy robić, i to, co nasz umysł potrafi wytworzyć.

G.F.: Te modele istniały już wcześniej. Jedynie teraz jesteśmy na takim stopniu ich zaawansowania, że one zaczęły na nas robić wrażenie, bo sztuczna inteligencja, która nie potrafi narysować człowieka czy która pisze tekst brzmiący, mówiąc potocznie, jak „Kali mieć”, „Kali chcieć, nie robi takiego wrażenia. Natomiast model, który produkuje esej przechodzący zaliczenie na uniwersytecie, czy obraz, który wygrywa konkurs na prace graficzne, to już jest pewien wyłom w takim nieporadnym działaniu do tej pory obserwowanych modeli. I myślę, że przede wszystkim właśnie to spowodowało, że aktualnie zaczęliśmy o tej sztucznej inteligencji, o tych algorytmach tak wiele mówić.

Co właściwie stoi za taką popularnością AI? Musimy sobie zadać pytanie, czy to są nadzieje, obawa czy mieszanka tego wszystkiego. Artur Kurasiński również uważa, że modele językowe jak ChatGPT będą game changerami chociażby szkolnictwa wyższego.

A.K.: Część amerykańskich uniwersytetów już zabroniło stosowania tego typu narzędzi w testach, bo oczywiście sprytni amerykańscy studenci zaczęli wykorzystywać ChatGPT do rozwiązywania testów. Ta technologia AI zdoła przekonać w jednym z testów na amerykańską uczelnię medyczną, że jest człowiekiem, po prostu zda ten egzamin lepiej niż człowiek.

A jeżeli chodzi o samą sztuczną inteligencję, to widzimy, że niektóre firmy budują pewnego rodzaju AI-je dla siebie, żeby np. wspomagać swoją pracę, inne, żeby lepiej się uczyć i móc lepiej rozumieć klientów. Robią to linie lotnicze, hotele, serwisy bukujące. Zaczyna być tego bardzo dużo. Pokładam największą nadzieję AI w medycynie, bo my jako ludzie możemy szybko dokonać ciekawego postępu. Jeżeli medycyna – to w tym wszystkim nauka. Rozrywka, biznes – zobaczymy, jak w tym będzie się rozwijać.

Na początku grudnia obrazy generowane przez sztuczną inteligencję zaczęły pojawiać się na stronie głównej ArtStation, serwisu uważanego za jedną z najważniejszych platform internetowych dla profesjonalnych artystów, zwłaszcza tych pracujących w mediach, filmie i grach wideo. Członkowie tej społeczności internetowej rozpoczęli chwilę później szeroko zakrojony bunt przeciwko tej platformie, przesyłając ze swoich portfolio „No AI art”. Artyści potępili obecność obrazów generowanych przez sztuczną inteligencję na ArtStation, twierdząc, że podważa to umiejętności i wysiłek włożony w tworzenie przez nich sztuki. Zmusili platformę do zaktualizowania warunków swoich usług oraz zmiany FAQ, czyli pytań. Niektórzy zagrozili, że całkowicie usuną swoje profile z serwisu. Gosia Fraser zwraca uwagę, że praca artystów jest wykorzystywana do nauki sztucznej inteligencji.

G.F.: Ja tu widzę dwa aspekty. Pierwszy z nich to jest to, że ich praca jest wykorzystywana, ale nie tak, jak oni by chcieli, mianowicie jako materiał treningowy dla algorytmów. Kiedy wejdziemy sobie na Discorda Midjourney i zadamy temu modelowi do stworzenia grafikę, która stylem przypomina malarstwo van Gogha, dostaniemy rezultat, który stylem przypomina malarstwo van Gogha. Kiedy wpiszemy jakieś inne znane nazwisko ze świata sztuki, również tej współczesnej, dostaniemy rezultat przypominający dzieła tej artystki czy tego artysty. I pojawiło się mnóstwo moim zdaniem bardzo uzasadnionych głosów mówiących o tym, że „to są modele, które uczą się na naszych pracach, na naszym dorobku życiowym, który my prezentujemy w ramach portfoliów dostępnych on-line po to, żeby mieć pracę, żeby móc się rozwijać biznesowo, artystycznie, a wszystko to trafiło do gigantycznej bazy danych LION-5B i jest konsumowane w ramach danych treningowych przez algorytmy”.

Algorytmy tworzą sztukę, która przypomina wyglądem dzieła ludzi z reputacją, renomą, dla wielu kanoniczny dorobek ludzkości. I robią to w ułamku sekundy, za darmo i dla każdego. Ucząc się z prac innych, tym samym naruszają w ogromnym stopniu prawo autorskie. Myślę, że tutaj będą wielkie wyzwania. Być może część z Was w ostatnim czasie wrzuciła swoje zdjęcie właśnie do jednego z takich serwisów, który generował kilka różnych przeróbek, może nawet ustawialiście sobie to jako zdjęcia profilowe, więc sami możecie ocenić, na ile Wam się to podobało, na ile nie. Ale też zastanówcie się przez chwilę, jakie to faktycznie może mieć reperkusje.
G.F.: Bardzo często spotykam się z komentarzem, że „przecież znane nazwiska, wielcy artyści się obronią i oni na pewno przetrwają na rynku, bo ich praca na pewno będzie odróżnialna w stosunku do tej generowanej przez algorytmy”. Nie, tu nie chodzi o te znane nazwiska. Tu chodzi o tych, którzy chcą zacząć w branży, którzy całe życie marzyli, żeby się rozwijać graficznie, pracować. Ten próg wejścia w branżę stanie się dla bardzo wielu osób niedosiężny. Będziemy mieli do czynienia z dalszym pogłębianiem się nierówności, bo ostatnie badania przeprowadzane przez Massachusetts Institute of Technology wykazały, że robotyzacja i automatyzacja nie tyle te nierówności społeczno-ekonomiczne w USA pogłębiły, co w wielu grupach wywołały, bo próg wejścia do pracy przestał być opłacalny dla przedsiębiorcy, a dla pracownika stał się nieosiągalny.

Sztuczna inteligencja może wpłynąć nie tylko na rynek osób zajmujących się grafiką. Google już teraz dysponuje narzędziem systemu sztucznej inteligencji i może generować muzykę w dowolnym gatunku, biorąc pod uwagę sam tekst. Ale firma, obawiając się ryzyka, nie ma na razie planów jej opublikowania. System nazywa się MusicLM i nie jest to pierwsze tego rodzaju narzędzie. Wcześniejsze z powodu ograniczeń technologicznych nie odwzorowywały złożonej kompozycji. MusicLM został przeszkolony na zbiorze danych zawierającym ponad 280 tys. godzin, żeby nauczyć się generować piosenki spójne do szczegółowych opisów, np. zawierające hasła: „berlińskie techno”, „lata 90.”, „głęboki bas” albo jakkolwiek byście sobie to zdefiniowali.
To jeden z przykładów utworów, które zostały wygenerowane przez MusicLM na podstawie opisu. Utwór muzyczny typu R&B, hip-hop, męski rapujący wokal i żeński wokal śpiewający w sposób podobny do rapu. Bit składa się z fortepianu grającego akordy z elektronicznym podkładem perkusyjnym. Atmosfera utworu jest zabawna i energiczna. Utwór mógłby zostać wykorzystany w ścieżce dźwiękowej licealnego filmu lub programu telewizyjnego.
Dziennikarska branża od wielu lat korzysta już ze wsparcia może nie tyle co sztucznej inteligencji, co jakiejś formy automatyzacji. I zresztą powiem szczerze, w naszej branży też dużo mówi się o tym, że niektóre dziedziny mogą być nie tyle zastąpione, co w pewnym sensie wyparte. Na przykład już są media na świecie, którym jakaś forma AI pomaga w pracy, tworzy np. skróty z wydarzeń sportowych. Albo jak sobie spojrzycie na wszelkiego rodzaju relacje na żywo, to one już mogą być tak pisane, np. kto strzelił gola, podanie. AI może także analizować bazy danych i wysyłać nam, dziennikarzom, alerty, gdy z danych wyłoni się jakaś anomalia. Upatruję tu spore szanse w kwestii wsparcia w szczególności tego procesu researcherskiego i wyszukiwania różnego rodzaju rzeczy, które potem mogą pomóc w tworzeniu historii.
Monika Borycka, trendresearcherka i analityczka innowacji, w tym sztucznej inteligencji, zwraca uwagę, że ostatni rozwój narzędzi AI zaskoczył ją pod kątem językowym. Dotychczas działające narzędzie posługujące się przede wszystkim językiem angielskim zostało rozbudowane o kolejne języki narodowe.
Monika Borycka: Przyznam się szczerze, że korzystałam z kilku narzędzi dotyczących sztucznej inteligencji chociażby dla rynku medialnego i one wszystkie miały zawsze problemy z językami narodowymi. Najczęściej były dostępne w języku angielskim. W tym momencie ta bariera praktycznie zniknęła. Byłam zdziwiona, że ChatGPT kompletnie się nie wykłada na języku polskim. Wprawdzie nie odczyta ironii i pewnych konstrukcji metaforycznych, ale jest w stanie całkiem fajnie nas obsłużyć w tym obszarze.

Sztuczna inteligencja jest wykorzystywana również w dziennikarstwie sportowym, tworzy skróty z wydarzeń sportowych, które są dostosowane do długości preferowanej przez widzów AI w mediach. Skraca czas potrzebny do ręcznego kompilowania tych najważniejszych wydarzeń oraz opracowywania krótkich podsumowań. Ekspertkę zapytaliśmy o to, które z branż zmieniły się w związku z rozwojem AI i które z nich powinno obawiać się jakiejś formy zagrożeń.
M.B.: Nie sądzę, że zostanie jakaś branża, której to przyspieszenie rozwoju sztucznej inteligencji nie dotknie. Myślę, że niezależnie od tego, jaki zawód wykonujemy, wszyscy będziemy musieli wkrótce przyzwyczaić się do tego, że mamy to potężne narzędzie, i nauczyć się z nim pracować bądź współpracować, jak chcą niektórzy. Są takie opinie, że będzie to kolejna duża rewolucja na skalę pojawienia się internetu bądź mediów społecznościowych. Ja czytam to trochę szerzej. Myślę, że to nie będzie opierało się tylko o sztuczną inteligencję, ale w ogóle o szereg nowych usług i narzędzi, które będą tworzyły tę nową iterację internetu.

Gosia Fraser jest spokojna, jeżeli chodzi o wpływ AI.
G.F.: Patrząc na to, jak obecnie działają te modele, jeżeli będziemy zachowywali się rozsądnie, to żadna branża nie straci. Jeżeli chodzi o „zatrudnienie” sztucznej inteligencji, algorytmów w dziennikarstwie – oczywiście mamy takie przypadki – agencja Associated Press stosuje algorytmy do tworzenia prostych komunikatów, które w zasadzie skupiają się wyłącznie na uszeregowaniu i podaniu czytelnikowi pewnych danych. Dlaczego sztuczna inteligencja nie zagrozi dziennikarstwu? Ponieważ nie odróżnia prawdy od fałszu. I jakkolwiek możemy chcieć pytać ChatGPT albo inne boty o to, żeby znalazły dla nas treści na zadany temat, ale nie mamy absolutnie żadnej gwarancji, że te rzeczy, które dostaniemy jako zwrotkę, kiedy wpiszemy zapytanie do wyszukiwarki Google’a czy Microsoftu, czy to, co poda nam ChatGPT, będzie prawdziwe w logicznym albo faktograficznym sensie. Dlatego zastosowanie tych modeli w dziennikarstwie to jest jeszcze długa droga. Bo zanim one nauczą się – o ile one będą zdolne nauczyć się bez ciągłego nadzoru człowieka – poruszać w takim terenie, gdzie ten fałsz jest praktycznie eliminowany z odpowiedzi, to minie trochę czasu.

Jeżeli chodzi o nas, o Outriders, to my obserwujemy sztuczną inteligencję. Czasem korzystamy z narzędzi, które mają takie elementy wbudowane, choć są to rzeczy bardziej związane z machine learningiem. I przynajmniej widzimy zapewnienia twórców, że sztuczna inteligencja jest gdzieś tam rozwijana, chociażby w takim prostym narzędziu jak Feedly, którego używamy do skanowania i wybierania tematów do Magazynu. A od listopada 2022 r. serwis technologiczny CNet korzystał z bota opartego na sztucznej inteligencji, który generował dla redakcji teksty poświęcone tematyce finansowej. Informacje o tym nie były komunikowane publicznie aż do stycznia tego roku. Okazało się, że teksty były podpisywane jako „CNet Money Staff”, co dla nas może być zrozumiałe jako hasło: redakcja. To sama redakcja pochwaliła się tym działaniem, przez co spadła na nią lawina krytyki. Zarzucono jej m.in. brak etyki, a także zbyt niewidoczne oznaczanie treści generowanych przez bota, nie informujące, iż nie pisał ich człowiek.

I tutaj dochodzimy do takiego punktu, w którym sztuczna inteligencja, a także właściwie nie ona sama, tylko to, do czego ona może zostać stworzona, jest i będzie chyba największym wyzwaniem, jeśli chodzi o wszelkiego rodzaju formy dezinformacji. Mogą to być generowane filmy. Na początku wojny stworzono bardzo dobrego fejka z prezydentem Ukrainy Zełenskim, który nawoływał do poddania się. To wideo szybko sfakczekowane i zdebankowane już tak szybko się nie rozchodziło. Ale musimy być wyczuleni na różnego rodzaju idealne podróbki, które będą manipulować naszą przestrzenią dookoła. I z tym zgadza się Gosia Fraser, która uważa, że ChatGPT i podobne do niego modele to nowe narzędzia do możliwej dezinformacji i tworzenia fake newsów.
G.F.: Generacja wszelkiego rodzaju treści, które mogą zostać wykorzystane w ramach innych operacji informacyjnych, przede wszystkim dlatego, że one pozwalają na generowanie takich tekstów z niesamowitą szybkością, i w przeciwieństwie do dziennikarstwa czy w przeciwieństwie do zapytań, w których my chcemy otrzymać treść zgodną z prawdą, która częściowo wykracza poza nasz stan wiedzy.

W przypadku wyszukiwarek, jak twierdzi Fraser, założeniem jest zapytanie o coś, czego użytkownik nie wie, czego chce się dowiedzieć i o czym chce, żeby ten model mu przybliżył. Inaczej to działa w wypadku AI, które się uczy.
G.F: Ten aspekt dezinformacyjny ma jeszcze jeden wymiar. Biorąc pod uwagę, że te modele uczą się na treściach, które pobierają z internetu, którymi są karmione w ramach tego treningu – to są naprawdę petabajty danych – to w internecie treści są różne. I nawet jeżeli nie chcemy dezinformować i nie chcemy też dezinformacji otrzymywać, to możemy ją otrzymać, bo modele uczą się również na treściach, które są rasistowskie, dyskryminują, utrwalają stereotypy, zawierają liczne uprzedzenia. Algorytm jak najbardziej może nam to wypluć. W momencie kiedy mamy użytkownika nieświadomego istnienia takich rzeczy, to on po prostu weźmie za prawdę to, co mu wyrzucił model, bez żadnego dystansu ani weryfikacji. Powoduje to utwierdzanie w takich stereotypach społecznych, dyskryminujących postawach. Mamy propagację tez rasistowskich, prorasistowskich niejednokrotnie. I to jest jak najbardziej zagrożenie dezinformacją nieintencjonalną ze strony modeli.

AI to nie tylko ryzyka i zagrożenia, ale wspomniane wcześniej wsparcie w pracy, techniki, medycyny czy po prostu moderacji. Jak mówi Gosia Fraser, dzięki AI w ogromnym stopniu przyspieszamy również z pracami nad lekami na nowe choroby.
G.F.: Obecnie sztuczna inteligencja jest wykorzystywana do poszukiwania nowych rozwiązań zarówno w zakresie farmacji i różnych kombinacji substancji chemicznych, które mogą dać nam odpowiedź na leczenie jak dotąd nieuleczalnych chorób. I wszystko to dzięki mocy obliczeniowej, która jest dużo szybsza niż praca ludzka. Bo w tym momencie mamy do czynienia z procesami, które przetwarzają tysiące kombinacji w bardzo krótkim czasie, a badania prowadzone przez człowieka byłyby tutaj żmudne, trwały wręcz dekady i nie doprowadziły być może do żadnego przełomu. Więc to są te pozytywne zastosowania sztucznej inteligencji.

Sztuczna inteligencja wspiera także branża IT i uzupełnia proces kodowania przez developerów, jak wskazuje Monika Borycka z TrendRadar.
M.B.: Podobnie jak w kodowaniu, dziś już mamy narzędzia, też udostępnione chociażby przez OpenAI. Jest takie narzędzie, które rozwija możliwości GitHuba, wykorzystywane jest przez developerów. Nazywa się Copilot i jest w stanie w 40% utworzyć we współpracy z developerem kod. Czyli developer koduje – albo wręcz nokoduje, bo mamy już ten cały nurt no-code – i sztuczna inteligencja pomaga mu, dopowiadając 40% tego kodu.

AI wspiera branżę muzyczną. Jaguarec, firma, która zajmuje się dostarczaniem muzyki do produkcji telewizyjnych i reklam, korzysta z AI od kilku lat przede wszystkim w bibliotekach muzycznych, a także ich muzycznych hitach. I o tym rozmawialiśmy z Magdą Niestryjewską.
Magda Niestryjewska: Nasza praca polega przede wszystkim na tym, że my proponujemy naszym klientom muzykę, więc musimy znać nasze katalogi najlepiej na świecie. Jest taki przemiał tej muzyki, że AI pozwala lepiej szukać utworów, proponować je naszym klientom. OpenAI pracuje na zasadzie wyszukiwań: jeżeli mamy preferencję muzyczną, to możemy ją do tego AI-ja wprowadzić. On przede wszystkim analizuje linię melodyczną, wokal męski lub żeński, instrumenty. Nasz system jest developowany z naukowcami w Czechach. I tam jest lead w postaci takiego szalonego naukowca, który jest wspomagany przez młodych kompozytorów, którzy jemu podpowiadają i uczą ten system rozpoznawania instrumentów.

Jak będzie wyglądać przyszłość związana z AI? Jakie zadania przed nami, jak duży wpływ ma już teraz na naszą rzeczywistość i pracę. Artur Kurasiński zwraca uwagę na to, że AI może nas jeszcze zaskoczyć i kolejne zastosowania dopiero pojawią się na rynku.
A.K.: Prawnie mamy pytanie natury filozoficznej, które głęboko będzie docierało, w jakimś sensie bardzo dotykało tych kwestii związanych z demokracją, polityką, budowaniem społeczeństwa obywatelskiego. Bo generowanie fake newsów, tworzenie bardzo dużej ilości treści, która niekoniecznie musi być neutralna, tworzenie deepfake’owych grafik czy wideo z wykorzystaniem publicznie dostępnych zdjęć – to są rzeczy, z którymi realnie już możemy czy musimy się mierzyć. AI jest ogromnym skokiem. Niektórzy powiedzą, że to jest bardziej ewolucja niż rewolucja pod kątem technologicznym, ale jeżeli chodzi o użytkowanie, o kwestie związane z wdrożeniem tego, jest to nieprawdopodobnie zmieniająca naszą już teraz obecnie świadomość technologia. A myślę, że kolejne lata pokażą tylko, że będzie o wiele więcej zastosowań, z których obecnie w ogóle nie zdajemy sobie sprawy.

Monika Borycka wskazuje, że rozwój sztucznej inteligencji może paradoksalnie pozwolić nam rozwinąć ludzką kreatywność i skupić się na tym, czego AI nie jest w stanie zrobić, czyli przewidywać.
M.B.: Posługiwanie się wyłącznie wsparciem sztucznej inteligencji bądź danymi, które sztuczna inteligencja nam wypluje, to poleganie na danych, które już były, a nie na nowych rozwiązaniach, na łączeniu na nowo kropek i poszukiwaniu nowych rozwiązań bądź budowaniu nowych światów, które pomagałyby nam te nowe, nieznane nam wcześniej wyzwania rozwiązywać. Więc widzę takie przekierowanie na ludzką kreatywność trochę właśnie paradoksalnie w kontekście pytania: „Czy maszyny zastąpią nas całkowicie?”.

To był 54. odcinek Outriders Podcast. Na kolejny zapraszamy Was już wkrótce, w przyszłą środę o ósmej rano. Jeśli interesuje Was, co jeszcze wydarzyło się na świecie, zapiszcie się do naszego Magazynu. On wychodzi w każdy piątek o godzinie ósmej rano, pracuje nad nim Ania Górnicka oraz Grzegorz Kurek. Ja zachęcam do śledzenia nas w mediach społecznościowych, tam przez najbliższe 7–14 dni będziecie mogli śledzić kulisy powstawania naszego nowego projektu interaktywnego z Ukrainy, będziemy pracować z Kramatorska oraz jego okolic.
Za dziś bardzo serdecznie dziękuję i do usłyszenia.

Transkrypcja