Polki i Polacy,
Pany i Panewki,
Nie wiem jak śmiesznie nawiązać do dzisiejszego meczu, notabene nie wiem na ten moment jak się skończył, ale wziąłem leki, więc jestem dobrej myśli (dostaniemy tylko trochę w żopu).
Naukowcy z Uniwersytetu Illinois zaprezentowali agentów sztucznej inteligencji zdolnych do autonomicznego hakowania stron internetowych i wykrywania nieznanych wcześniej luk w zabezpieczeniach, także najistotniejszych Zero-Day vulnerabilities. Systemy działają na podstawie systemu HPTSA (Hierarchical Planning and Task-Specific Agents), który umożliwia im podejmowanie decyzji na różnych poziomach złożoności. Każdy agent ma przypisane specyficzne zadania, co zwiększa ich efektywność w wykrywaniu i wykorzystaniu luk. Badania wykazały, że system jest w stanie zidentyfikować i wykorzystać aż 53% analizowanych luk, przewyższając możliwości obecnie dostępnych narzędzi bezpieczeństwa.
Elon Musk, może kojarzycie, oskarżony został przez akcjonariuszy Tesli o insider trading, czyli nielegalny handel akcjami z wykorzystaniem poufnych informacji dla swoich korzyści. Według skargi złożonej w sądzie w stanie Delaware, Musk wraz ze swoim bratem sprzedali łącznie akcje o wartości 30 miliardów dolarów. Datowane jest to na okres między końcem 2021 roku, a końcem roku następnego. Wspominam o tym tutaj, gdyż w pozwie wskazano, że Musk przekierowywał pracowników Tesli do pracy nad projektami dla X i xAI, jego nowego startupu AI.
Mogę się założyć, że budząc się dziś rano nie pomyślelibyście, że dowiecie się czegoś o Kaszalotach. Jeśli jednak tak było, odezwijcie się na priv, chętnie nawiąże z Wami koleżeńską relację, bo czuję, że się dogadamy.
Badania MIT i Project CETI (Cetacean Translation Initiative) ujawniły skomplikowaną strukturę językową, porównywalną z ludzkimi systemami językowymi, którą to posługuję się te urodziwe istoty. kaszaloty używają różnorodnych kodów, które różnią się w zależności od kontekstu rozmowy. Analiza tysięcy kodów, krótkich sekwencji kliknięć doprowadziły do informacji, że kody te składają się z elementów takich jak rytm, tempo, rubato (płynne zmiany długości kliknięć) czy ornamentację (dodatkowe kliknięcia). W eksperymencie wykorzystano akustyczne D-tags, które rejestrowały szczegóły wzorców wokalnych, a otrzymane wyniki analizowane były przez zaawansowane techniki wizualizacji i analizy danych.
Natomiast w kraju kwitnących sławojek Yandex pochwalił się nowym narzędziem Open Source o ponętnej nazwie YaFSDP, optymalizujące proces treningu dużych modeli językowych. W rzuconych liczbach produkt prezentuje się następująco: do 26% szybszy trening (w stosunku do poprzednich wersji, w tym FSDP); oszczędność do 20% zasobów GPU, co z kolei przekładać się ma na 0.5- 1.5 miliona dolarów miesięcznie oszczędności dla korporacji (treningu modelu z 70 miliardami parametrów to oszczędność zasobów rzędu 150 GPU).
Jeśli jeszcze nie zdążyliście, a macie na sumieniu zabawne łańcuszki, teksty zabraniające wykorzystywania Waszych zdjęć przez Facebooka albo obrazki „Martyna, twój przyszły samochód to …Lamborghini…”, to może czas najwyższy rozliczyć się przeszłością. Inaczej nakarmimy tym przyszłe modele AI i martwmy się, jakie zaczniemy otrzymywać wyniki… 🙁
Meta bowiem wprowadza nową politykę, która pozwala firmie na wykorzystanie zdjęć i postów użyszkodników swoich platform do treningu, także swoich, narzędzi sztucznej inteligencji. Opcja będzie automatycznie włączona u wszystkich użytkowników Facebooka i Instagrama, opierając swoją decyzję na podstawie prawnej zwanej “uzasadnionymi interesami”. Nie muszę Wam chyba tłumaczyć, dlaczego ruch ten wywołuje kontrowersje i obawy, zwłaszcza dotyczące prywatności – o ile coś takiego jeszcze istnieje w naszym życiu.
Tomato.ai pokazało technologię umożliwiającą łagodzenie naszego akcentu w czasie rzeczywistym. Rewolucja dla branży call center, która oczywiście może pomóc w pracy tak cudzoziemcom wyjeżdżającym za chlebem i pracującym na słuchawce w swoim nieojczystym języku, jak i wszystkim pracownikom porozumiewającym się w języku angielskim w jakiejś międzynarodowej korporacji. Model wykorzystuje podejście “zero-shot”, co oznacza, że nie wymaga wcześniejszego treningu na danych specyficznych dla danego akcentu, a jak wiemy, ich róznorodność może powodować wiele nieporozumień, napędzanych przez np. gorszą jakość połączenia. Czy potencjalnym ryzykiem dla naszego regionu może być jeszcze doskonalsze ukrycie akcentu oszustów, ulokowanych taktycznie poza granicami kraju w gigantycznych hub-ach słuchawkowych? Być może.
Teraz temat zbyt mądry dla mnie, ale nic nie powstrzyma mnie przed skrótowym przedstawieniem go. 🥳
Wykorzystując zaawansowane algorytmy AI, naukowcy z Uniwersytetu Princeton i Princeton Plasma Physics Laboratory, opracowali technologię skoncentrowaną na kontrolowaniu wybuchów energii na krawędziach plazmy, znanych jako Edge Localized Modes. Mówimy oczywiście o reaktorach termojądrowych, działających w ekstremalnych warunkach. Największym wyzwaniem jest kontrolowanie plazmy, aby zapobiec jej niestabilności, gdyż to może skończyć się poważnymi uszkodzeniami reaktora – dokonania naukowców pozwalają skrócić czas obliczeń, z sekund aż do milisekund, zwiększając precyzję, co udowodnione zostało m.in. w DIII-D National Fusion Facility w USA oraz tokamaku ASDEX Upgrade w Niemczech, gdzie wykazano znaczną poprawę stabilności i efektywności.
GLM-4-9B to wbrew pozorom nie imię nowego dziecka Elona Muska, a chiński model językowy z 9 miliardami parametrów, wytrenowany przy użyciu 26 języków, przyjmujący do 128 tysięcy tokenów, z możliwością rozszerzenia do miliona. Dystrybucja w modelu Open Source i wyniki poprawnych odpowiedzi odbiegają od GPT-4, ale poprzez wielokrotnie mniejszą liczbę parametrów udzielane odpowiedzi są szybkie i ekonomiczne, co ma swoje zastosowania – np. w chatbotach czy tłumaczeniach.
Ciekawie temat wygląda przy efektach pracy zespołu Qwen. Nowa seria modeli językowych Qwen2, będącą ewolucją poprzedniej wersji – Qwen1.5, to 5 wariantów różniących się wielkością: Qwen2-0.5B, Qwen2-1.5B, Qwen2-7B, Qwen2-14B-A14B i Qwen2-72B, odpowiednio opisujących ile miliardów parametrów wykorzystano do wytrenowania. Największy model, mogący pochwalić się 72 miliardami, może być bliższym konkurentem dla GPT-4. Nie znalazłem rzetelnego porównania i zachęcam do testowania, jako, że i tutaj doczynienia mamy z dystrybucją Open Source.
Do przeczytania za 2 tygodnie 👋