News #18

Polki i Polacy,

Pany i Panewki,

Nie wiem jak śmiesznie nawiązać do dzisiejszego meczu, notabene nie wiem na ten moment jak się skończył, ale wziąłem leki, więc jestem dobrej myśli (dostaniemy tylko trochę w żopu).

Naukowcy z Uniwersytetu Illinois zaprezentowali agentów sztucznej inteligencji zdolnych do autonomicznego hakowania stron internetowych i wykrywania nieznanych wcześniej luk w zabezpieczeniach, także najistotniejszych Zero-Day vulnerabilities. Systemy działają na podstawie systemu HPTSA (Hierarchical Planning and Task-Specific Agents), który umożliwia im podejmowanie decyzji na różnych poziomach złożoności. Każdy agent ma przypisane specyficzne zadania, co zwiększa ich efektywność w wykrywaniu i wykorzystaniu luk. Badania wykazały, że system jest w stanie zidentyfikować i wykorzystać aż 53% analizowanych luk, przewyższając możliwości obecnie dostępnych narzędzi bezpieczeństwa.

Elon Musk, może kojarzycie, oskarżony został przez akcjonariuszy Tesli o insider trading, czyli nielegalny handel akcjami z wykorzystaniem poufnych informacji dla swoich korzyści. Według skargi złożonej w sądzie w stanie Delaware, Musk wraz ze swoim bratem sprzedali łącznie akcje o wartości 30 miliardów dolarów. Datowane jest to na okres między końcem 2021 roku, a końcem roku następnego. Wspominam o tym tutaj, gdyż w pozwie wskazano, że Musk przekierowywał pracowników Tesli do pracy nad projektami dla X i xAI, jego nowego startupu AI.

Mogę się założyć, że budząc się dziś rano nie pomyślelibyście, że dowiecie się czegoś o Kaszalotach. Jeśli jednak tak było, odezwijcie się na priv, chętnie nawiąże z Wami koleżeńską relację, bo czuję, że się dogadamy.

Badania MIT i Project CETI (Cetacean Translation Initiative) ujawniły skomplikowaną strukturę językową, porównywalną z ludzkimi systemami językowymi, którą to posługuję się te urodziwe istoty. kaszaloty używają różnorodnych kodów, które różnią się w zależności od kontekstu rozmowy. Analiza tysięcy kodów, krótkich sekwencji kliknięć doprowadziły do informacji, że kody te składają się z elementów takich jak rytm, tempo, rubato (płynne zmiany długości kliknięć) czy ornamentację (dodatkowe kliknięcia). W eksperymencie wykorzystano akustyczne D-tags, które rejestrowały szczegóły wzorców wokalnych, a otrzymane wyniki analizowane były przez zaawansowane techniki wizualizacji i analizy danych.

Natomiast w kraju kwitnących sławojek Yandex pochwalił się nowym narzędziem Open Source o ponętnej nazwie YaFSDP, optymalizujące proces treningu dużych modeli językowych. W rzuconych liczbach produkt prezentuje się następująco: do 26% szybszy trening (w stosunku do poprzednich wersji, w tym FSDP); oszczędność do 20% zasobów GPU, co z kolei przekładać się ma na 0.5- 1.5 miliona dolarów miesięcznie oszczędności dla korporacji (treningu modelu z 70 miliardami parametrów to oszczędność zasobów rzędu 150 GPU).

Jeśli jeszcze nie zdążyliście, a macie na sumieniu zabawne łańcuszki, teksty zabraniające wykorzystywania Waszych zdjęć przez Facebooka albo obrazki „Martyna, twój przyszły samochód to …Lamborghini…”, to może czas najwyższy rozliczyć się przeszłością. Inaczej nakarmimy tym przyszłe modele AI i martwmy się, jakie zaczniemy otrzymywać wyniki… 🙁

Meta bowiem wprowadza nową politykę, która pozwala firmie na wykorzystanie zdjęć i postów użyszkodników swoich platform do treningu, także swoich, narzędzi sztucznej inteligencji. Opcja będzie automatycznie włączona u wszystkich użytkowników Facebooka i Instagrama, opierając swoją decyzję na podstawie prawnej zwanej “uzasadnionymi interesami”. Nie muszę Wam chyba tłumaczyć, dlaczego ruch ten wywołuje kontrowersje i obawy, zwłaszcza dotyczące prywatności – o ile coś takiego jeszcze istnieje w naszym życiu.

Tomato.ai pokazało technologię umożliwiającą łagodzenie naszego akcentu w czasie rzeczywistym. Rewolucja dla branży call center, która oczywiście może pomóc w pracy tak cudzoziemcom wyjeżdżającym za chlebem i pracującym na słuchawce w swoim nieojczystym języku, jak i wszystkim pracownikom porozumiewającym się w języku angielskim w jakiejś międzynarodowej korporacji. Model wykorzystuje podejście “zero-shot”, co oznacza, że nie wymaga wcześniejszego treningu na danych specyficznych dla danego akcentu, a jak wiemy, ich róznorodność może powodować wiele nieporozumień, napędzanych przez np. gorszą jakość połączenia. Czy potencjalnym ryzykiem dla naszego regionu może być jeszcze doskonalsze ukrycie akcentu oszustów, ulokowanych taktycznie poza granicami kraju w gigantycznych hub-ach słuchawkowych? Być może.

Teraz temat zbyt mądry dla mnie, ale nic nie powstrzyma mnie przed skrótowym przedstawieniem go. 🥳

Wykorzystując zaawansowane algorytmy AI, naukowcy z Uniwersytetu Princeton i Princeton Plasma Physics Laboratory, opracowali technologię skoncentrowaną na kontrolowaniu wybuchów energii na krawędziach plazmy, znanych jako Edge Localized Modes. Mówimy oczywiście o reaktorach termojądrowych, działających w ekstremalnych warunkach. Największym wyzwaniem jest kontrolowanie plazmy, aby zapobiec jej niestabilności, gdyż to może skończyć się poważnymi uszkodzeniami reaktora – dokonania naukowców pozwalają skrócić czas obliczeń, z sekund aż do milisekund, zwiększając precyzję, co udowodnione zostało m.in. w DIII-D National Fusion Facility w USA oraz tokamaku ASDEX Upgrade w Niemczech, gdzie wykazano znaczną poprawę stabilności i efektywności.

GLM-4-9B to wbrew pozorom nie imię nowego dziecka Elona Muska, a chiński model językowy z 9 miliardami parametrów, wytrenowany przy użyciu 26 języków, przyjmujący do 128 tysięcy tokenów, z możliwością rozszerzenia do miliona. Dystrybucja w modelu Open Source i wyniki poprawnych odpowiedzi odbiegają od GPT-4, ale poprzez wielokrotnie mniejszą liczbę parametrów udzielane odpowiedzi są szybkie i ekonomiczne, co ma swoje zastosowania – np. w chatbotach czy tłumaczeniach.

Ciekawie temat wygląda przy efektach pracy zespołu Qwen. Nowa seria modeli językowych Qwen2, będącą ewolucją poprzedniej wersji – Qwen1.5, to 5 wariantów różniących się wielkością: Qwen2-0.5B, Qwen2-1.5B, Qwen2-7B, Qwen2-14B-A14B i Qwen2-72B, odpowiednio opisujących ile miliardów parametrów wykorzystano do wytrenowania. Największy model, mogący pochwalić się 72 miliardami, może być bliższym konkurentem dla GPT-4. Nie znalazłem rzetelnego porównania i zachęcam do testowania, jako, że i tutaj doczynienia mamy z dystrybucją Open Source.

Do przeczytania za 2 tygodnie 👋

Zobacz także:

  • Piotr Szymański

    Kategoria:

    Hejka! Zapraszam na skrót z minionych dwóch tygodni, który przyswoić możecie przy ciepłej herbatce w te mroczne, szare dni. W opublikowanym przez Google 14 listopada ostrzeżeniu wskazano kilka najważniejszych rodzajów oszustw internetowych. Uwagę zwrócono między na niebezpieczne techniki ataków typu cloaking, które nabierają nowego wymiaru dzięki wykorzystaniu sztucznej inteligencji. Cloaking polega na ukrywaniu przed użytkownikiem […]
  • Piotr Szymański

    Kategoria:

    Hejka po dłuższej przerwie! Zaczynamy świeżym tematem. Raptem kilkanaście godzin temu do użytkowników trafiła, zapowiedziana 25 lipca, funkcja SearchGPT od OpenAI, umożliwiająca, w przeciwieństwie do tradycyjnych modeli językowych, na integrację z internetem w czasie rzeczywistym. SearchGPT ma dostęp do aktualnych informacji z sieci, co pozwala na udzielanie odpowiedzi opartych na najnowszych danych. Ponadto SearchGPT dostarcza […]
  • Piotr Szymański

    Kategoria:

    Hejson! Dzisiejsza konsumpcja mediów ma to do siebie, że odbywa się na 5-6 calowym ekranie telefonu. Ma też to do siebie, że zanim zdjęcie dotrze do Ciebie, to przejdzie przez 6 konwersacji na jedynym słusznym messengerze, zatem zostanie 6-cio krotnie skompresowane. W międzyczasie, jak będziecie mieli pecha, to jakiś wujek zrobi screena, zamiast zapisać zdjęcie […]
  • Piotr Szymański

    Kategoria:

    Hej! Robimy bardzo dużo zdjęć, a co za tym idzie – wiele z nich jest niechlujnych, z zabałagnionym tłem. Możemy jednak chcieć wykorzystać je do pochwalenia się naszym ryjkiem na jakimś publicznym profilu, gdyż np. naturalne, miękkie światło korzystnie eksponuje naszą facjatę. Podejścia mogą być dwa – albo zdecydujemy się na blur bądź zupełne usunięcie […]
  • Piotr Szymański

    Kategoria:

    Strzałeczka. Nvidia przejęła OctoAI, startup specjalizujący się w optymalizacji modeli uczenia maszynowego. To już piąta akwizycja Nvidii w 2024 roku, co czyni aktualnie nam panujący rok rekordowym pod względem liczby przejęć. OctoAI, założone w 2019 roku przez Luisa Ceze, skupiło się na tworzeniu oprogramowania zwiększającego wydajność modeli uczenia maszynowego na różnych platformach sprzętowych. Oprogramowanie OctoAI […]