Cześć i czołem!
Przejdźmy od razu do rzeczy najistotniejszych, poważnych i brzemiennych w skutkach dla Nas wszystkich.
Roblox właśnie pokazał nowe narzędzie AI, ubogacające możliwości platformy mocno stawiającej na sztuczną inteligencję. Zmiany mają zmienić sposób tworzenia gier i map, pozwalając na generowanie światów na bieżąco, bez potrzeby skomplikowanego programowania w języku Lua. Generatywna sztuczna inteligencja, bazując na poleceniach gracza lub dewelopera (dziś, niejednokrotnie, po prostu innego młodego gracza), pozwala na generowanie map i scen za pomocą tekstu, obrazu, a nawet filmów. Projekt jest na wczesnym etapie rozwoju i prowadzony jest przez około 40 pracowników.
Jest wrzesień, a więc poza powrotem na lekcje biologii czy przyjściem na świat niespodzianek sylwestrowych (trzeba było słuchać uważnie na tych lekcjach) corocznym wydarzeniem są premiery nowych owocowych urządzeń.
Apple ma zaprezentować iPhone 16 wraz z nowym chipem A18, opartym na architekturze Arm V9. Współpraca Apple z Arm przynosi korzyści obu firmom. Arm dostarcza swoje najnowsze rozwiązania, a Apple wprowadza je do popularnych produktów, co generuje wyższe zyski z licencji. Przy nowym produkcie Arm może pobierać nawet dwukrotnie wyższe opłaty licencyjne niż w przypadku poprzednich generacji. Chip A18 będzie podstawą do obsługi nowych funkcji Apple Intelligence, takich jak bardziej zaawansowana Siri, generowanie emoji i zaawansowane edytowanie zdjęć. Wersja beta iOS 18.1, wprowadzająca te innowacje, jest już testowana przez deweloperów. Nie pytajcie, kiedy Siri po Polsku.
Reflection-70B to nowy, otwarty model językowy oparty na Llama 3.1 i samonadzorującej technice Reflection Tuning, umożliwiającej wykrywanie i poprawianie błędów w rozumowaniu dzięki analizie swoich odpowiedzi i, jeśli to konieczne, wprowadzaniu korekt kierunków myślenia. Metoda ta ma szczególne znaczenie w bardziej złożonych zadaniach, które wymagają ciągłej analizy i poprawności wnioskowania.
Zamiast generować pojedynczą odpowiedź, Reflection 70B dodaje fazy rozumowania i refleksji przy użyciu specjalnych tokenów. Podczas generowania odpowiedzi model wyświetla proces myślowy w tagach <thinking> i poprawia potencjalne błędy w tagach <reflection>, zanim przedstawi ostateczną odpowiedź w tagach <output>. Reflection 70B osiągnął znaczną poprawę w ograniczaniu halucynacji; benchmarki takie jak MMLU, MATH i IFEval wykazały jego wyższość nad innymi modelami (GPT-4, Sonnet 3.5) – Reflection 70B zdobył odpowiednio 89,9% w MMLU, 79,7% w MATH i 90,1% w IFEval.
Sztuczne konta, sztuczne brzmienie, prawdziwe problemy – tak nieco nienowocześnie można zacząć akapit mówiący o panu Michaelu Smith, który oskarżony jest o tworzenie sztucznej muzyki generowanej przez AI i wykorzystywanie fałszywych, sztucznych kont do sztucznego zwiększania liczby odtworzeń, co miało przynieść prawdziwe zyski finansowe – mówimy o 10 milionach dolarów z platform takich jak Spotify, Apple Music i Amazon Music. Schemat opierał się na masowej produkcji utworów, a następnie, przy wykorzystaniu ponad 10 000 fałszywych kont, wygenerowanie takiego ruchu na platformie, że czasami algorytmy oznaczały niektóre jego treści jako podejrzane. Mimo to, wiele z nich pozostało aktywnych, co pokazuje, jak trudno jest wykryć i zapobiec takim manipulacjom.
W Wenezueli pojawili się El Pana i La Chama – prezenterzy wiadomości pracujący w ramach inicjatywy stworzonej przez organizację Connectas z siedzibą w Kolumbii. Te wirtualne postacie są publicznymi twarzami wiadomości publikowanych przez grupę niezależnych mediów, a szczytnym celem jest ochrona biologicznych dziennikarzy przed represjami, gdyż tamtejszy rząd pod przewodnictwem Maduro, aresztuje reporterów, protestujących i opozycjonistów.
W codziennych transmisjach, stworzone przez AI awatary informują świat o codziennych represjach i dyktatorskich zapędach prezydenta, nie narażając reporterów na ryzyko. Carlos Eduardo Huertas, dyrektor platformy dziennikarskiej Connectas,wyjaśnił, że decyzja o użyciu sztucznej inteligencji to odpowiedź na prześladowania i rosnące represje, z jakimi borykają się nasi koledzy w Wenezueli, gdzie niepewność co do bezpieczeństwa wykonywania ich pracy rośnie z każdą minutą.
Ale zanim przejdziemy dalej – na wypadek, gdybyście nie zauważyli – chcemy was poinformować, że nie jesteśmy prawdziwi – takimi słowami podzielili się z widzami nowi pracownicy.
Chińska grupy Alibaba pokazała model o nazwie Qwen2-VL, udostępniony na otwartej licencji Apache 2.0 i cechujący się zaawansowanymi zdolnościami rozumienia obrazów. Produkt oparty jest na wcześniejszym modelu Qwen-VL, zapewniającym mu możliwość zrozumienia filmów trwających ponad 20 minut. Według firmy, model potrafi podsumować zawartość wideo, odpowiadać na związane z nim pytania oraz utrzymywać ciągłą rozmowę w czasie rzeczywistym, pełniąc funkcję osobistego asystenta. Kluczową różnicą między Qwen2-VL a poprzednikiem jest wykorzystanie modelu Vision Transformer z około 600 milionami parametrów, który pozwala przetwarzać zarówno obrazy, jak i wideo jednocześnie. Wprowadzono także wsparcie dla dynamicznej rozdzielczości oraz system M-ROPE, co umożliwia modelowi jednoczesne rozumienie danych tekstowych, wizualnych 2D i pozycyjnych 3D. Model może także prowadzić konwersacje w czasie rzeczywistym, odpowiadając na pytania i pobierając dane z zewnętrznych źródeł, takich jak statusy lotów, prognozy pogody czy tracking paczek.
Teraz będzie temat o włosach. AI w branży włosowej – jest dla nas szansa Panowie, zrzucajcie czapki-zakrywajki!
Żartowałem. It’s over guys.
Sztucznej inteligencja w analizie włosów znajduje zastosowanie zarówno w diagnostyce zdrowotnej, jak i kryminalistyce. Badania wykazały, że AI jest w stanie zidentyfikować kluczowe biomarkery zdrowotne na podstawie analizy struktury włosów, takie jak poziomy stresu, niedobory żywieniowe i ekspozycje na toksyny. W kryminalistyce natomiast znacząco przyspiesza identyfikację osób poprzez analizę DNA zawartego we włosach. Badania nad aplikacją, prowadzone przez naukowców z College of Veterinary Medicine na Uniwersytecie Stanowym Waszyngton, zostały opublikowane w czasopiśmie Journal of Investigative Dermatology.
Wiele wskazuje na to, że włosy odzwierciedlają stan zdrowia danej osoby. Szersze zastosowanie otwiera możliwości diagnozowania problemów zdrowotnych na wczesnym etapie, takich jak zaburzenia hormonalne czy niewłaściwe poziomy witamin. AI umożliwia również analizowanie włosów w celu śledzenia długoterminowych zmian w organizmie, co może być cennym źródłem wiedzy w monitorowaniu terapii medycznych. W kryminalistyce, wykorzystanie sztucznej inteligencji do analizy włosów poprawia szybkość i dokładność identyfikacji podejrzanych. Algorytmy są w stanie porównać próbki włosów z bazami danych genetycznych, co skraca czas potrzebny na przeprowadzenie analiz.
System jest w stanie pobierać próbki setek włosów jednocześnie, co w ciągu kilku sekund gwarantuje ogromne ilości danych w wysokiej rozdzielczości, które są następnie przetwarzane przez algorytm głębokiego uczenia, analizujący kolor, kształt, szerokość i długość każdego włosa. Naukowcy przetestowali go na futrze myszy, ale aplikacja może być stosowana do włosów dowolnych gatunków, w tym ludzkich. Tworząc dane o wzorcach zdrowych włosów, można opracować skalę, na podstawie której lekarze i weterynarze mogliby oceniać ogólny stan zdrowia
Pomysł narodził się u Jassona Makkara, doktoranta nauk molekularnych, który został przydzielony do roli ręcznego separowania tysięcy włosów do innych projektów badawczych. Aby urzeczywistnić ten pomysł, Makkar wyszkolił model do rozpoznawania włosów, korzystając z wysokowydajnych klastrów komputerowych swojego uniwersytetu. Z pomocą mikroskopu Aperio GT450, zautomatyzowano uzyskiwanie obrazów włókien włosów w wysokiej rozdzielczości.
Miłego wieczoru życzę Wam, tak jak i mnóstwa Robuxów!