Siemson sportowe świry!
Dumni po zwycięstwie, wierni po porażce. Tym razem jednak bez wstydu, hańby i kompromitacji. Nie podejrzewam naszego sztabu szkoleniowego o klasyczną inspirację rozwiązaniem stosowanym w Liverpoolu, natomiast nie miał bym nic przeciwko. We współpracy z Google DeepMind powstał bowiem TacticAI, model predykcyjny wspomagający wysiłki trenerów. Już w 2021 potrafił zgadnąć gdzie piłkarz kopnie piłkę w rzucie karnym, żeby w następnym skutecznie przewidywać kierunek biegu zawodnika. Na dzień dzisiejszy narzędzie analizuje grę i podpowiada trenerom na co, a właściwie na kogo, zwrócić uwagę przy stałych fragmentach gry i innych zagraniach. Klub oczekiwał wsparcia przy rzutach rożnych, zazwyczaj niedocenianych. Perspektywa bramki wynosi marne 2%, więc każda poprawa tej statystyki jest na wagę złota.
Zespół DeepMind zabrał się do roboty; przeanalizowano 7176 rzutów rożnych z angielskiej ligi Premier League, a pozycje zawodników na boisku przedstawiono w formie grafu. Zastosowano technikę zwaną geometrycznym głębokim uczeniem, co pozwoliło na efektywniejszą pracę sieci neuronowej. W efekcie TacticAI potrafi przewidzieć, kto najpierw dotknie piłki po rożnym i jak najlepiej ustawić zawodników, aby zwiększyć szansę na celny strzał. Następnie może wygenerować zalecenia dotyczące najlepszych sposobów dostosowania pozycji i ruchu zawodnika, aby zmaksymalizować szansę na oddanie skutecznego strzału (dla drużyny atakującej) lub zminimalizować ją (dla drużyny broniącej). Ekspertom piłkarskim z Liverpoolu szczególnie spodobało się to, jak spostrzeżenia TacticAI mogły wskazać napastników, którzy mieli kluczowe znaczenie dla powodzenia danej taktyki, lub obrońców, którzy przespali swoją szansę.
Elon Musk udostępnił natomiast Grok-1, model wyróżniający się poczuciem humoru, sarkazmem i zbieraniem danych w czasie rzeczywistym z portalu X, w trybie open source. Rekordowy, bo aż 314 miliardowy model Mixture-of-Experts to nieprzetworzony punkt kontrolny Groka-1 z fazy przed-treningowej.
Jak już kiedyś wspominałem, Apple budzi się ze snu zimowego i w tym tygodniu po raz kolejny głęboko przeciąga się, ziewa i odklikuje kolejną drzemkę. Poznaliśmy bowiem MM1 – nową serię multimodalnych dużych modeli językowych, zdolnych do kompleksowego przetwarzania tekstu i obrazu. Artykuł badawczy MM1: Methods, Analysis & Insights from Multimodal LLM Pre-training mówi o 30 miliardach parametrów w swojej największej wersji– to sporo. Ogromne zbiory danych, duża złożoność i możliwość efektywnej nauki nawet subtelnych korelacji pomiędzy tekstem a obrazem.
Bogata i przejrzysta dokumentacja techniczna, clear roadmap – brzmi zupełnie jak Apple! Jako iż mamy do czynienia z modelem multimodalnym, to nacisk położony został na starannym dobraniu różnorodnych par tekst/podpis – obraz. Tim Cook obiecał swoim inwestorom, że korporacja pod jego przywództwem ujawni w tym roku jeszcze więcej swoich planów dotyczących sztucznej inteligencji.
Planem B firmy spod Cupertino może być Mountain View. Mark Gurman, dziennikarz Bloomberga, informuje, że Apple aktualnie jest na wstępnym etapie rozmów z Google na temat implementacji silnika Gemini do struktury iOS. Aktywne negocjacje miałyby mieć swój finał w iOS 18, który ma być przełomowy dla wykorzystania sztucznej inteligencji w urządzeniach mobilnych.
Stan Tennessee, z gubernatorem Billem Lee na czele, podjął pionierski krok w postaci ustawy Ensuring Likeness Voice and Image Security Act (ELVIS), która ma chronić autorów muzycznych przed niewłaściwym, w domyśle nielegalnym, wykorzystaniem przez sztuczną inteligencję. Ów akt prawny, będący modyfikacją ustawy o ochronie praw obywatelskich, stanowi, że głos artysty, a także jego pseudonim i wizerunek, chroniony będzie przez nieautoryzowanym wykorzystaniem przez narzędzia AI, czyli po prostu klonowaniem, inspirowaniem się. Wielu muzyków z Tennessee twierdzi, że nie ma luksusu czekania na idealne rozwiązanie, wskazując, że zagrożenia ze strony sztucznej inteligencji już pojawiają się na ich telefonach komórkowych i w studiach nagraniowych. Ustawa wejdzie w życie z dniem 1 lipca.
Kontynuując prawniczą passę, to Organizacja Narodów Zjednoczonych, czyli na dzień dzisiejszy twór zdający się mieć znacznie niższą wartość i sprawczość niż stan Tennessee, przyjęła właśnie pierwszą w historii rezolucję dotyczącą sztucznej inteligencji. Przedłożona przez przedstawiciela Stanów Zjednoczonych uzyskała aprobatę wszystkich krajów członkowskich, a także wsparcie finansowe 122 zrzeszonych krajów. Głosowano za ochroną danych osobowych i unikaniem zagrożeń związanych z AI. Ta rezolucja pomoże zapewnić, że korzyści z AI dosięgną krajów ze wszystkich regionów i na wszystkich poziomach rozwoju i skupia się na budowaniu zdolności i zasypywaniu podziałów cyfrowych, zwłaszcza dla krajów rozwijających się – powiedział Antony Blinken, sekretarz stanu.
Rak piersi to nowotwór złośliwy powstający z komórek gruczołu piersiowego, który rozwija się miejscowo w piersi oraz daje przerzuty do węzłów chłonnych i narządów wewnętrznych (np. płuc, wątroby, kości i mózgu). Rak piersi jest najczęściej występującym nowotworem złośliwym u kobiet. Jedna na 8 kobiet, czyli około 13% populacji damskiej w USA, zachoruje na inwazyjnego raka piersi w ciągu swojego życia, a 1 na 39 kobiet (3%) umrze z powodu tej choroby, jak twierdzi American Cancer Society. Parafrazując klasyka: „show me your boobs”, a Mirai pomoże przewidzieć ryzyko raka piersi. Mirai to algorytm oparty na głębokim uczeniu, podobny w budowie do ChatGPT, który jednak nie sprawdził się w takim stopniu jak przewidywali to naukowcy. Dlatego Donnelly i jego koledzy z Wydziału Informatyki i Wydziału Radiologii porównali swój nowo opracowany model głębokiego uczenia oparty na mammografii o nazwie AsymMirai z przewidywaniami Mirai dotyczącymi ryzyka raka piersi w okresie od 1 do 5 lat. AsymMirai został zbudowany na frontendowej części głębokiego uczenia się Mirai, która analizuje różnice tkankowe między lewą i prawą piersią. “Wcześniej różnice między lewą i prawą tkanką piersi były wykorzystywane tylko do wykrywania raka, a nie do przewidywania go z wyprzedzeniem” – powiedział Donnelly. “Odkryliśmy, że Mirai wykorzystuje porównania między lewą i prawą stroną, dzięki czemu byliśmy w stanie zaprojektować znacznie prostszą sieć, która również wykonuje porównania między stronami“. Aby potwierdzić, że prostszy model jest równie skuteczny, naukowcy porównali wyniki ponad 210 tysięcy mammografii z lat 2013-2020 przy użyciu obydwu modeli. Badacze odkryli, że ich uproszczony model głębokiego uczenia działał prawie tak dobrze, jak najnowocześniejszy Mirai w przewidywaniu ryzyka raka piersi od 1 do 5 lat. Wyniki potwierdziły również kliniczne znaczenie asymetrii piersi, a w rezultacie podkreślają potencjał obustronnej odmienności jako przyszłego markera obrazowania ryzyka raka piersi – jest to cenne spostrzeżenie również dla ludzkich radiologów.
Gdy rak piersi zostanie już wykryty, pacjentkę poddaje się leczeniu – a jak wiadomo każda ingerencja niesie za sobą ryzyko powikłań lub skutków ubocznych. Międzynarodowy zespół medyków, naukowców i badaczy zaprojektował narzędzie sztucznej inteligencji, które może wskazać, jak prawdopodobne jest, że pacjent doświadczy problemów po operacji i radioterapii. Najczęstszymi z nich są zmiany skórne, blizny, obrzęk limfatyczny, czyli bolesny obrzęk ramienia, a nawet uszkodzenie serca w wyniku radioterapii. Technologia, testowana w Wielkiej Brytanii, Francji i Holandii, może pomóc pacjentom w dostępie do bardziej spersonalizowanej opieki. Model AI został przeszkolony w zakresie przewidywania obrzęku do 3 lat po operacji na postawie danych od 6361 pacjentek. Algorytm w swoich przewidywaniach bierze po uwagę 32 różne zmienne, w tym wcześniejszą chemioterapię lub resekcję węzła wartowniczego. Narzędzie nie tylko pomoże lekarzom w podejmowaniu decyzji klinicznych, ale również ułatwi udzielanie pacjentom wyjaśnień popartych danymi.
Tak jak co tydzień, tak i dziś życzę Wam znośnego tygodnia!