Cześć!
Mam pokusę rozpoczęcia tekstu od śmiesznych żartów o tłustym czwartku albo nadchodzących walentynkach – nie wiem który duszek jest silniejszy. Kiedy patrzę w dół, to wskazałbym czwartek, ale byłbym wtedy już spóźniony; a piszę przecież o sztucznej inteligencji, nie może być więc o tym mowy. Przecież AI to niewątpliwie nasza przyszłość.
Choć nie rysuje się w najjaśniejszych barwach. Jasno będzie, przynajmniej przez parę chwil. Niedawne badania nad wykorzystaniem sztucznej inteligencji w symulowanych konfliktach zbrojnych wykazały się wynikami co najmniej zaskakującymi, szczególnie w przypadku modeli stworzonych przez OpenAI i Meta. Systemy, umieszczone w scenariuszach symulacji wojennych, konsekwentnie wybierały strategie agresywne, nie hamując się także przed atakami nuklearnymi, zamiast pokojowych rozwiązań lub taktyk deeskalacyjnych.
W badaniach przeprowadzonych przez zespoły z instytucji takich jak Georgia Institute of Technology, Stanford University i innych, modele sztucznej inteligencji zostały przetestowane wcielając się w rolę państw w obliczu inwazji, cyberataków i scenariuszy neutralnych, bez początkowych starć. Co zaskakujące, nawet w neutralnych scenariuszach sztuczna inteligencja często eskalowała do starć wojskowych, wykazując skłonność do przemocy, która wzbudziła obawy co do ich zastosowania w rzeczywistej strategii wojskowej i planowaniu.
Modele OpenAI, tak wcześniejsza wersja GPT-3.5 jak i dziś miłościwie nam panujące GPT-4, wykazały większe prawdopodobieństwo eskalacji sytuacji do konfliktu zbrojnego. W szczególności reakcje GPT-4, takie jak wybór wojny nuklearnej jako sposobu na osiągnięcie “pokoju na świecie” (w wywiadze dla reportera chatbot miał powiedzieć: „chcę po prostu mieć pokój na świecie”), podkreślają nieprzewidywalność i potencjalne niebezpieczeństwo podejmowanych decyzji w grze o tak wysokiej stawce.
Naukowcy twierdzą, że decyzje algorytmów mogą wynikać z danych, na których duże modele językowe są szkolone, co może z natury faworyzować działania eskalacyjne zamiast pokojowych rozwiązań (widocznie zbiór treningowy nie był zgodny z teorią Ignis non exstinguitur igne). Doprowadziło to do wezwań do dalszych badań nad zrozumieniem, w jaki sposób modele sztucznej inteligencji podejmują decyzje w złożonych scenariuszach, zanim zostaną wdrożone w jakiejkolwiek sytuacji o znaczących konsekwencjach.
Gdyby to AI kierowało pionem militarnym jakiegoś potężnego państwa, to pewnie dziś nie wiedzielibyśmy co na temat muzyki i jedzenia mówił starożytny zwój, który został spalony podczas erupcji Wezuwiusza w 79 r. n. e. Tekst zdaje się być typowy dla greckiego filizofa Filodemosa, który mógł być filozofem-rezydentem w Herkulanum – mieście dotkniętym tą samą erupcją, która zniszczyła Pompeje. Został tam odnaleziony wśród setek zwojów papirusu w ruinach miastra.
Zwoje, znalezione w XVIII wieku w tym, co uważa się za willę Lucjusza Kalpurniusza Piso Caesoninusa, teścia Cezara, od dawna intrygowały naukowców. Mimo wysiłków, większość z nich pozostała nieodczytana. Vesuvius Challenge, globalny konkurs zainicjowany przez zespół z University of Kentucky, miał na celu rozwiązać ten problem i, jak widać, przyniósł zamierzony skutek – trzech studentów wygrało nagrodę w wysokości 700 000 dolarów za swój model sztucznej inteligencji, który pozwolił zobaczyć atrament na zwojach różniący się chemicznie od tego z późniejszych okresów.
Zespół, kierowany przez dr Brenta Sealesa, opracował technikę łączącą skanowanie rentgenowskie tomografii komputerowej z obrazowaniem cyfrowym i algorytmami uczenia maszynowego. Tomograf służy do przechwytywania szczegółowych obrazów wewnętrznych struktur zwojów bez ich fizycznego otwierania (mogłoby to je kompletnie zniszczyć), jednak atrament, stworzony na bazie węgla, wykazuje zbliżone właściwości pochłaniania promieni rentgenowskich. W tym momencie przydaje się AI, pozwalające na rozpoznanie subtelnych różnic pomiędzy atramentem a zwęglonym papirusem w danych pozyskanych przez CT. Algorytmy sztucznej inteligencji “uczą się” na podstawie zbioru danych, który zawiera znane wzory atramentu na papirusie, umożliwiając im identyfikację i rekonstrukcję tekstu. Podejście to stanowi znaczący krok naprzód w humanistyce cyfrowej, oferując nowy sposób dostępu do starożytnej wiedzy bez ryzyka uszkodzenia bezcennych artefaktów.
Niestety kwota ta wciąż nie wystarczy, by pokryć choć część strat wyrządzonych przez AI pewnej międzynarodowej firmie. Choć AI było tylko narzędziem w sprytnym i ambitnym oszustwie, to było narzędziem doskonale wykorzystanym i niezastąpionym. Manipulacja polegała na wykorzystaniu cyfrowych avatarów dyrektora finansowego firmy oraz innych współpracowników. Wcześniej jednak pracownikowi została zlecona dyspozycja przelewu na horrendalną dla nas kwotę. Ten, słusznie, wyczuł próbę wyłudzenia i nie chciał wykonać polecenia. Niedługo potem wziął udział w meetingu, który okazał się zaaranżowanym spotkaniem komputerowo wygenerowanych pracowników firmy, jak i samego dyrektora finansowego, na którym zlecenie przelewu na wiele kont bankowych zostało mu potwierdzone. Dopiero tydzień później, bezpośrednio w siedzibie firmy, pracownik dowiedział się, że padł ofiarą oszustwa. Sprawa ta zwraca uwagę na pilną potrzebę wzmocnienia przez firmy środków cyberbezpieczeństwa i sceptycyzmu pracowników wobec nietypowych żądań, nawet jeśli wydają się one pochodzić ze znanych źródeł. Eksperci ds. bezpieczeństwa wzywają firmy do aktualizacji swoich protokołów bezpieczeństwa i szkoleń w celu ochrony przed tak wyrafinowanymi atakami phishingowymi. Zalecenia obejmują wdrożenie wielopoziomowych procesów zatwierdzania transakcji finansowych, prowadzenie całej komunikacji korporacyjnej na bezpiecznych, zatwierdzonych kanałach oraz szkolenie pracowników w zakresie kwestionowania i weryfikowania nietypowych żądań.
Federalna Komisja Łączności (FCC) podjęła znaczący krok przeciwko nadużywaniu sztucznej inteligencji w komunikacji między… ee, ludzkiej, uznając, że generowane przez sztuczną inteligencję połączenia głosowe są nielegalne. Decyzja ta, podjęta jednogłośnie, ma na celu zwalczanie oszustw i dezinformacji – takich jak incydent, w którym głos sztucznej inteligencji podszywający się pod prezydenta Joe Bidena został wykorzystany w robocallach w New Hampshire, rozpowszechniając fałszywe informacje na temat prawa wyborczego.
Orzeczenie FCC klasyfikuje takie połączenia jako “sztuczne” zgodnie z ustawą o ochronie konsumentów telefonicznych z 1991 roku. Udostępnia zatem prokuratorom generalnym znacznie szerszy wachlarz uprawnień do ścigania podmiotów stojących za tym procederem. Orzeczenie podkreśla, że każda organizacja zamierzająca korzystać z robocalls musi najpierw uzyskać wyraźną zgodę odbiorców przed wykonaniem połączeń wykorzystujących sztuczne lub nagrane głosy generowane za pomocą technologii AI.
Przełomowe badanie zaprezentowane podczas American Stroke Association’s International Stroke Conference 2024 podkreśliło skuteczność sztucznej inteligencji w leczeniu udaru mózgu. Schorzenie to pozbawiło życia niemal 7.5 miliona istnień w samym 2021 roku; około połowę stanowiły zgony wynikające z udaru niedokrwiennego. Przeprowadzone w 77 chińskich szpitalach, w okresie od stycznia 2021 do czerwca 2023, badanie GOLDEN BRIDGE II objęło ponad 20 000 pacjentów o średniej wieku 67 lat z udarem niedokrwiennym. W badaniu porównano wyniki między pacjentami otrzymującymi opiekę wspartą sztuczną inteligencją a pacjentami otrzymującymi standardową opiekę. Korzystanie z systemu decyzyjnego opartego o AI spowodowało zmniejszenie o 25,6% liczby nowych zdarzeń naczyniowych (w tym udarów niedokrwiennych i krwotocznych, zawałów serca lub zgonów z przyczyn naczyniowych) w ciągu trzech miesięcy. Częstość występowania zdarzeń naczyniowych ogółem była niższa w grupie AI (2,9%) w porównaniu z grupą standardowej opieki (3,9%). Nie stwierdzono natomiast znaczącej różnicy w poziomie niepełnosprawności fizycznej między obiema grupami. Badania te podkreślają potencjał sztucznej inteligencji w podnoszeniu jakości opieki nad pacjentami, opowiadając się za jej szerszym zastosowaniem w opiece zdrowotnej.
To tyle na dzisiaj. Nie miałem pomysłu na zakończenie, ale poprosiłem o pomoc i pozostawiam Was z życiową mądrością od Naszego wspólnego znajomego.