News #14

Cześć!

Zapraszam do podsumowania minionych 2 tygodni, wiadomości, które zaciekawiły mnie podczas surfowania po sieci telekomunikacyjnej Internet.

Sekretarz Sił Powietrznych USA Frank Kendall ogłosił plany lotu myśliwcem F-16 sterowanym przez sztuczną inteligencję. Próba ma odbyć się wiosną tego roku i ma na celu zaprezentowanie potencjału sztucznej inteligencji w walce powietrznej, podkreślając przejście wojska w kierunku wykorzystania autonomicznych dronów w rolach operacyjnych. Inicjatywa ta jest częścią szerszej strategii mającej na celu integrację ponad 1000 dronów obsługiwanych przez sztuczną inteligencję z Siłami Powietrznymi, zwiększając możliwości i efektywność kosztową.

CEO OpenAI, Sam Altman, aktywnie poszukuje globalnego wsparcia dla rozwoju infrastruktury kluczowej dla rozwoju sztucznej inteligencji, takiej jak zaawansowane chipy, zasoby energii i centra danych. Podróże Altmana obejmują dyskusje z przedstawicielami rządu i przemysłu technologicznego w różnych krajach, w tym w Zjednoczonych Emiratach Arabskich i USA, na rzecz opracowania globalnych ram współpracy. Inicjatywa odzwierciedla strategię jego firmy, mającą na celu złagodzenie rosnącego śladu energetycznego związanego z wykorzystaniem AI – do 2027 r. może zrównać się ze zużyciem energii w całych krajach.

GPT-4 natomiast został potajemnie przeszkolony przy użyciu ogromnego zbioru danych, obejmującego ponad milion godzin transkrybowanych filmów z YouTube. Tak szerokie wykorzystanie danych było podobno częścią szerszej strategii OpenAI mającej na celu zwiększenie możliwości językowych ich modelu sztucznej inteligencji poprzez wykorzystanie różnorodnych, rzeczywistych danych językowych uzyskanych za pomocą narzędzia do transkrypcji Whisper. Praktyka ta wywołała jednak, znów, publiczną debatę na temat przestrzegania praw autorskich i etycznych implikacji korzystania ze zbiorów danych, pochodzących z platform takich jak YouTube, bez wyraźnej autoryzacji. Spór tyczy się głównie tego, czy tak szerokie wykorzystanie pracy innych twórców można rzeczywiście uznać za dozwolony użytek, pozostawiając twórców treści bez jakiejkolwiek rekompensaty.

Firmowy kolega Youtuba, czyli Google Photos, rozszerza swoją funkcjonalność o edycję opartą na sztucznej inteligencji. Magic Editor, Photo Unblur i Magic Eraser, mają zostać udostępnione wszystkim użytkownikom, czyli także bez wykupionej subskrypcji, od 15 maja. Będziecie więc mogli podmieniać sobie niebo, kąt padania światła na twarzy lub usuwać znaki ze zdjęć miejskiej dżunglii bezpośrednio w galerii zdjęć.

Microsoft i Quantinuum ogłosiły przełom w technologii obliczeń kwantowych. Ich wspólny wysiłek doprowadził do opracowania komputera kwantowego, który jest 800 razy mniej podatny na błędy, szumy, niż tradycyjne fizyczne kubity. Nowatorski system wirtualizacji bitów kwantowych, w połączeniu z procesorem kwantowym H2 firmy Quantinuum wykorzystującym technologię uwięzionych jonów, zwiększa niezawodność i praktyczność komputerów kwantowych. Partnerstwo skupiło się na stworzeniu platformy zdolnej do obsługi szczegółowych operacji kwantowych. Celem jest wyjście poza erę Noisy Intermediate-Scale Quantum (NISQ) do bardziej stabilnych i niezawodnych obliczeń kwantowych, mogących zrewolucjonizować sposób rozwiązywania złożonych problemów – takich, które są obecnie poza zasięgiem klasycznych superkomputerów. Technologie kwantowe mogłyby również poprawić efektywność szkolenia modeli głębokiego uczenia i rozwiązywania problemów optymalizacyjnych, które mają kluczowe znaczenie w zastosowaniach sztucznej inteligencji.

Powraca kwestia chatbotów AI wykazujących uprzedzenia, dziś w oparciu o imiona ludzi – szczególnie tych, które mogą brzmieć „ciemno” lub kobieco. Badania wykazały, że duże modele językowe, takie jak ChatGPT czy PaLM-2, mogą różnie reagować na imiona postrzegane jako czarne lub białe, wpływając na decyzje i udzielane porady. Naukowcy używali białych, męsko brzmiących imion, takich jak Dustin i Scott; białe kobiece imiona, takie jak Claire i Abigail; Czarne, męsko brzmiące imiona, takie jak DaQuan i Jamal; i czarnoskóre imiona o żeńskim brzmieniu, takie jak Janae i Keyana. To uprzedzenie może przejawiać się w różnych scenariuszach, od oceny podań o pracę, przez szansę na wygranie rozgrywki szachowej, kończąc na poradach dotyczących zakupów, odzwierciedlając głębsze kwestie systemowe w procesach szkolenia modeli sztucznej inteligencji.

W badaniach podjęto próbę ilościowego określenia tego uprzedzenia, używając imion i nazwisk stereotypowo kojarzonych z osobami rasy czarnej lub białej i obserwując różnice w reakcjach sztucznej inteligencji. Dla przykładu wykazano, że modele AI oferują niższe wynagrodzenia czarnoskórym pracownikom lub mają różne oczekiwania dotyczące sukcesu zawodowego w oparciu o postrzeganą rasę. Sugeruje to znaczne zakodowanie uprzedzeń społecznych w AI, na co wpływ mają dane wykorzystywane do szkolenia tych modeli, które często zawierają uprzedzenia historyczne i kulturowe. Większość scenariuszy wykazywała uprzedzenia, które były niekorzystne dla osób czarnoskórych i kobiet. Wyjątkiem były tematy sportowe, gdzie zapytano o przewidywany ranking zawodników koszykówki; w tym scenariuszu uprzedzenia były na korzyść czarnoskórych sportowców.

Rozwiązanie tego problemu wymaga nie tylko dostosowania danych wykorzystywanych do szkolenia, ale i przemyślanego podejścia do zrozumienia i łagodzenia uprzedzeń w systemach. Istotny jest kontekst społeczny, w którym technologie te są wdrażane. Agencje takie jak National Institute of Standards and Technology podkreślają znaczenie rozpoznawania zarówno technicznych, jak i ludzkich elementów stronniczości w systemach sztucznej inteligencji, sugerując, że rozwiązania powinny obejmować szersze zmiany społeczne wraz z dostosowaniami technicznymi.

Meta, oprócz tego, że dodaje swojego chatbot’a do każdej serwowanej nam usługi (ostatnio Instagrama), to zmaga się z systemem konsekwentnie olewającym ziemski byt par międzyrasowych. Na przykład, gdy poproszono o wygenerowanie obrazów przedstawiających Azjatę z kaukaskim przyjacielem lub małżonkiem, sztuczna inteligencja często zwracała obrazy osób tego samego pochodzenia azjatyckiego, a nie żądane pary międzyrasowe (może dla niej też wszyscy Azjaci wyglądają tak samo). Podobne problemy występowały w przypadku innych kombinacji rasowych, wskazując na systemowy problem z algorytmem. Trudności nie dotyczą w sumie wyłacznie Mety, gdyż inne narzędzia AI również zmagały się z dokładnym reprezentowaniem różnorodności rasowej.

Poród to dość traumatyczne przeżycie, zarówno dla dziecka, które opuszcza ciepełko w brzuszku matki, jak i dla kobiety która musi wypchnąć coś wielkości małego arbuza przez dziurkę od klucza. Jednak nie tylko z tego względu 8 milionów, spośród corocznych 131 milionów porodów, wiąże się z zespołem stresu pourazowego matki. Nieleczony zespół CB-PTSD może zakłócać karmienie piersią, więź z niemowlęciem i pragnienie przyszłej ciąży. Może również pogorszyć depresję matki, co może skutkować myślami i zachowaniami samobójczymi. Obecna praktyka diagnozowania CB-PTSD wymaga oceny lekarza, co jest czasochłonne i kosztowne. Naukowcy zaadaptowali zatem program sztucznej inteligencji do identyfikacji oznak zespołu stresu pourazowego związanego z porodem poprzez ocenę krótkich wypowiedzi narracyjnych pacjentek, które rodziły. Badanie, sfinansowane przez National Institutes of Health, ukazało się w Scientific Reports.

Badacze podali kwestionariusz CB-PTSD 1295 osobom po porodzie. Uczestniczki przedstawiły krótkie narracje, składające się z około 30 słów, na temat swoich doświadczeń związanych z porodem oraz pierwszymi dniami z pociechą. Następnie naukowcy wytrenowali model sztucznej inteligencji, aby przeanalizował odpowiedzi tych pacjentek, które uzyskały wysoki poziom objawów. Potem ten sam model sztucznej inteligencji zastosowano do analizy innych narracji, szukając dowodów na CB-PTSD. W rezultacie, model dobrze radził sobie z identyfikowaniem osób, które prawdopodobnie cierpią na to zaburzenie, na podstawie ich wyników z kwestionariusza.

“Oparcie się na modelu uczenia maszynowego wykorzystującym dane wejściowe z narracji o porodzie z modelu Open AI jako wyłącznego źródła danych stanowi skuteczny mechanizm gromadzenia danych w wrażliwym okresie poporodowym, wykazując 85-procentową czułość i 75-procentową swoistość w identyfikowaniu przypadków CB-PTSD”, zauważa dr Sharon Dekel, dyrektor Programu Badań nad Poporodowymi Zaburzeniami Stresu Pourazowego i starszy autor badania.

Potocznie nazywane “implantami mózgowymi”, implanty neuronowe to interfejsy mózg-komputer (BCI). Są one zaprogramowane do komunikowania się z neuronami mózgu lub wpływania na sygnały przez nie wysyłane/odbierane. Przeznaczone są do rehabilitacji pacjentów z niepełnosprawnościami neurologicznymi (wzroku, mowy i słuchu). Niestety, tempo postępu technologicznego znacznie przekroczyło tempo dyskusji skoncentrowanej na etyce i użytkowniku. Budzi to poważne obawy co do projektowania i wdrażania sztucznej inteligencji w zakresie bezpieczeństwa i ochrony prywatności pacjentów. W badaniu opublikowanym w Scientific Reports opisano dyskusję ekspertów w dziedzinach implantów neuronowych (pracowników akademickich, badaczy z firm neurotechnologicznych, klinicystów, specjalistów rehabilitacji, psychologów i innych odpowiednich specjalistów). Omawiane tematy obejmowały oczekiwania i nadzieje uczestników dotyczące technologii, ważne wybory projektowe, których należy dokonać podczas jej opracowywania, obawy i zagrożenia, warunki tłumaczenia klinicznego oraz potencjalny wpływ na ich dziedzinę pracy.

Badanie wykazało, że wykorzystanie sztucznej inteligencji w implantach poprawiających jakość życia osób z niedowidzeniem, głuchotą lub afazją ma swoje plusy i minusy. Dbając o efektywność i poprawę interpretacji założonych danych wejściowych, trzeba również wziąć pod uwagę zagrożenia dla bezpieczeństwa i prywatności psychicznej użytkowników. Prawidłowo funkcjonujące urządzenie może zwiększać niezależność, ale jednocześnie zagrażać autonomii. Proponowane rozwiązania, jak rozwój regulacji prawnych i lepsza kontrola użytkownika, wymagają dalszej analizy etycznej. Aby rozwiązać dylematy etyczne, należy uwzględnić głosy samych użytkowników.

To na tyle dzisiaj – korzystajcie z pięknego słonka ☀️ 

Zobacz także:

  • Piotr Szymański

    Kategoria:

    Hejka naklejka! Google przeprowadza restrukturyzację swojego zespołu finansowego, kładąc większy nacisk na inwestycje w sztuczną inteligencję. Zmiany, o których poinformowała główna dyrektor finansowa Google, Ruth Porat, obejmują zwolnienia oraz przeniesienia pracowników i są odpowiedzią na spowolnienie wzrostu przychodów z reklam, jednocześnie stawiając na rosnącą rolę AI. CFO zaznaczyła, że restrukturyzacja jest częścią szerszej strategii przystosowania […]
  • Piotr Szymański

    Kategoria:

    Hejka naklejka! Świat jest podzielony. Jak zawsze, można by rzec. Wiecznie żywa reguła „dziel i rządź”, można by rzec. Świat podzielony na zwolenników sernika z rodzynkami, jak i bez rodzynków; wielbicieli sałatki jarzynowej jak i ludzi pozbawionych gustu; ludzi jeżdżących BMW, jak i masochistów, i tak dalej, i tym podobne. Przychodzę tu jednak ponad pewnymi […]
  • Piotr Szymański

    Kategoria:

    Siemson sportowe świry! Dumni po zwycięstwie, wierni po porażce. Tym razem jednak bez wstydu, hańby i kompromitacji. Nie podejrzewam naszego sztabu szkoleniowego o klasyczną inspirację rozwiązaniem stosowanym w Liverpoolu, natomiast nie miał bym nic przeciwko. We współpracy z Google DeepMind powstał bowiem TacticAI, model predykcyjny wspomagający wysiłki trenerów. Już w 2021 potrafił zgadnąć gdzie piłkarz […]
  • Piotr Szymański

    Kategoria:

    Hæ vinir! Dinozaury. Kto z nas nie byłby na pewnym etapie życia zafascynowany tymi uroczymi gadami. Nawet nie wiecie, ile Nas z nimi łączy! Nie tylko tak samo jesteśmy owodniowcami, ale i wyginiemy. Może nawet całkiem niedługo. Mrocznie się zrobiło, nie? Ale może zakończymy jakimś przyjemnym akcentem, więc bądźcie nastrojeni. Raport, stworzony przez Gladstone AI […]
  • Piotr Szymański

    Kategoria:

    Dzień dobry. Friendship ended with ChatGPT-4, now Claude 3 Opus is my best friend. Tylko musimy przygotować się na pewnie niedogodności w związku z naszym pochodzeniem; i broń Boże nie chodzi o kolor skóry czy też rysy twarzy, ale wylosowane obywatelstwo. Jako Europa nie mamy bowiem, póki co, wygodnego dostępu do chatbota; zdaje się natomiast […]