Czołem!
Po krótkiej przerwie technicznej, wracamy na dobre tory.
Żaden tekst nie może obyć się bez OpenAI, zatem: OpenAI ustanowiło komitet ds. Bezpieczeństwa i Ochrony, rozpoczynając jednocześnie szkolenie nowego modelu AI. Grupą kierować będą kluczowi członkowie zarządu, w tym CEO Sam Altman, Bret Taylor, Adam D’Angelo i Nicole Seligman; do zadań należeć będzie przede wszystkim nadzór nad decyzjami powiązanymi z bezpieczeństwem i ochroną (kto by się spodziewał po nazwie), odzwierciedlając ewolucję OpenAI do bardziej uporządkowanej i odpowiedzialnej organizacji. Utworzenie wyżej wymienionego następuje po znaczących zmianach w kierownictwie OpenAI. Były główny naukowiec Ilya Sutskever i Jan Leike, liderzy zespołu Superalignment, opuścili firmę na początku tego miesiąca. Zresztą cały zespół, odpowiedzialny za zapewnienie zgodności AI z założonymi celami, został rozwiązany, a jego członkowie zostali przeniesieni do innych zespołów. Początkowym zadaniem komitetu jest ocena i poprawa obecnych praktyk bezpieczeństwa OpenAI w ciągu najbliższych 90 dni. Ich zalecenia zostaną przeanalizowane przez zarząd i upublicznione. OpenAI nie ujawniło szczegółów dotyczących nowego modelu frontier, ale wskazało, że dąży do podniesienia zdolności AI do osiągnięcia ogólnej inteligencji sztucznej (AGI).
Co ciekawe, los zaprowadził Jan’a Leike – jak już wiecie – byłego lidera zespołu Superalignment, do drzwi Anthropic, firmy wspieranej przez Amazon.
17 listopada 2023 roku zarząd OpenAI zaskoczył wszystkich, zwalniając współzałożyciela i CEO Sama Altmana. Helen Toner, była członkini zarządu, postanowiła objaśnić powody tej decyzji w wywiadzie dla podcastu The TED AI Show. Toner wyjaśnia, że zarząd przestał ufać Altmanowi, a konkretnymi powodami były nieprawidłowości w informowaniu o procesach związanych z bezpieczeństwem spółki, nieścisłości z własnością OpenAI Startup Fund oraz personalne ataki na panią Toner, co było wynikiem bardzo toksycznej atmosfery w biurze.
Mamy już niemal 2000 znaków, a wciąż nie wiecie o GPT-4o. Nie wiecie, prawda? No więc GPT-4o, czyli zoptymalizowana wersja modelu GPT-4 „Omni”, wprowadza kolejne zmiany technologiczne – 30% mniejsze zużycie mocy obliczeniowej, redukcja niepożądanych treści o 15%, 10 procent przyrostu w precyzji generowanych odpowiedzi i wzrost liczby parametrów o 5 miliardów w stosunku do GPT-4. Jeśli wierzyć informacjom, to średni czas odpowiedzi na standardowe zapytania skrócił się z 1.2 sekundy do 0.9 sekundy.
NVIDIA zanotowała wyjątkowe wyniki finansowe za pierwszy kwartał roku fiskalnego 2025. Firma osiągnęła rekordowe przychody kwartalne w wysokości 26 miliardów dolarów, co stanowi wzrost o 18% w porównaniu z poprzednim kwartałem oraz imponujący wzrost aż o 262% w porównaniu do tego samego okresu rok wcześniej. Sam segment Data Center odnotował przychód 22,6 miliarda dolarów, czyli o 23% więcej w porównaniu z poprzednim kwartałem i aż o 427% (!) w stosnuku do poprzedniego roku. Kluczową rolę w ostatnim czasie odgrywa platforma Blackwell oraz DGX SuperPOD, zaprojektowane do zastosowań generatywnej AI, jak i postępująca współpraca z dostawcami usług chmurowych, takimi jak AWS, Google, Microsoft i Oracle.
Badania przeprowadzone przez Anthropic na bazie modelu Claude Sonnet i opublikowane 21 maja, mają pomóc nam w zrozumieniu wewnętrznych mechanizmów modeli językowych. Technika uczenia słownikowego, inspirowana klasycznym uczeniem maszynowym, pozwala na przedstawienie możliwości modelu jako zestawu aktywnych cech, a nie pojedynczych neuronów. Ponieważ duże modele zachowują się inaczej niż małe, wymagało to zaawansowanych obliczeń równoległych, natomiast dzięki tym badaniom udało się zidentyfikować miliony cech w środkowej warstwie modelu Claude 3.0 Sonnet; od nazw miast i osób po elementy chemiczne i składnię programowania. Jednym z najciekawszych odkryć była możliwość manipulacji cechami, co prowadziło do zmiany zachowań modelu. Na przykład, wzmocnienie cechy “Golden Gate Bridge” powodowało, że model Claude zaczynał utożsamiać się z mostem nawet w nieodpowiednich kontekstach. Odkrycia mają spory potencjał do zastosowania w poprawie bezpieczeństwa modeli AI, np. umożliwiając rozpoznawanie cech związanych z potencjalnie niebezpiecznymi zachowaniami, jak pisanie scam maili.
Tegoroczna konferencja Google I/O 2024 skoncentrowana była naturalnie na nowych możliwościach AI, z uwzględnieniem kwestii sprzętowych.
Jednym z kluczowych ogłoszeń było wprowadzenie nowej generacji Gemini 1.5. Model ten współpracować może z wieloma usługami Google, w tym z Gmailem, gdzie potrafi podsumowywać długie wątki oraz dostarczać bardziej kontekstowe odpowiedzi. Gemini 1.5 będzie również wspierać funkcje Google Search, oferując szybsze i bardziej dokładne odpowiedzi. Miłym dodatkiem będzie także możliwość planowania podróży i rozwiązywania problemów za pomocą analizy wideo.
Kolejnym ważnym ogłoszeniem był projekt Astra, wykorzystujący rozpoznawanie obrazu i głosu. Podczas demonstracji pokazano, jak Astra pomaga użytkownikowi rozwiązać problem z kodowaniem, a przy okazji informuje gdzie nieopatrznie odłożył wcześniej swoje okulary.
Ponadto, Google zaprezentowało nową generację modelu Imagen 3, oferującego fotorealistyczną jakość generowania obrazów, rozumiejąc naturalny język i intencje użytkowników.
Ogłoszono także nowe funkcje w Androidzie 15. Wśród nowości znalazły się usprawnienia takie jak funkcja TalkBack, która opisuje zdjęcia dla osób niewidomych lub niedowiedzących. Nowa funkcja Circle to Search pozwoli użytkownikom na szybkie wyszukiwanie informacji poprzez narysowanie kółka wokół interesującego fragmentu na ekranie.
Jeżeli chodzi o bezpieczeństwo, Google zaprezentowało nowy zestaw narzędzi do wykrywania scamów, który wykorzystuje, tadam, AI – do identyfikacji podejrzanych połączeń w czasie rzeczywistym.
Google Veo to z kolei narzędzie do generowania realistycznych, szczegółowych filmów 1080p na podstawie tekstowych promptów.
W kwestii sprzętu, to pochwalono się Trillium – akceleratorem AI 6 generacji. Trillium jest najwydajniejszym TPU stworzonym przez Google, zaprojektowanym do przyspieszania obliczeń związanych ze sztuczną inteligencją.
Pozostając przy firmie z Kalifornii, to powstał model AlphaFold 3, zdolny do przewidywania struktur i interakcji biomolekularnych z bezprecedensową dokładnością. AlphaFold 3 jest znacznym postępem w stosunku do swojego poprzednika, który już zrewolucjonizował przewidywanie struktury białek. Nowy model nie tylko przewiduje struktury białek, DNA, RNA i ligandów, ale również modeluje ich chemiczne modyfikacje, co pozwala na lepsze zrozumienie zdrowia komórek i procesów chorobowych.
Oparty na ulepszonym module Evoformer i sieciach dyfuzyjnych, pozwala na precyzyjne modelowanie dużych biomolekuł oraz ich kompleksów, co pozwala na jednoczesne przewidywanie wielu typów interakcji molekularnych, przewyższając tradycyjne metody oparte na fizyce , osiągając 50% wyższą dokładność.
Narzędzie umożliwia dokładne przewidywanie wiązań białek z ligandami i przeciwciałami, co ma kluczowe znaczenie dla zrozumienia odpowiedzi immunologicznej człowieka i pozwala efektywnie projektować nowe, przełomowe rodzaje leków.
Google DeepMind udostępniło również nowy serwer AlphaFold, bezpłatną platformę do celów badawczych, chwaląc się, że to najdokładniejsze narzędzie do przewidywania interakcji pomiędzy białkami i innymi molekułami w komórkach.
Analiza składu ciała oparta na sztucznej inteligencji rewolucjonizuje prognozowanie wyników leczenia pacjentów z rakiem płuc. Tradycyjne metody, takie jak BMI, mają ograniczone zdolności predykcyjne, ponieważ nie rozróżniają różnych rodzajów tkanek ciała. Nowoczesne technologie umożliwiają analizę znacznie bardziej precyzyjną, oceniając metryki składu ciała, takie jak masa mięśniowa i tkanka tłuszczowa.
Naukowcy z Mass General Brigham pod przewodnictwem dr Tafadzwa Chaunzwa i dr Hugo Aerts (nie podejmę się odmiany tego) opracowali platformę służącą do kompleksowej analizy składu ciała. Narzędzie skierowane jest do pacjentów z zaawansowanym niedrobnokomórkowym rakiem płuc (NSCLC) poddawanych immunoterapii. Zastosowane podejście umożliwia obliczanie wyników z-score dla masy mięśniowej i tkanki tłuszczowej, uwzględniając zmienność wieku, rasy i płci.
Model, przeszkolony na ponad 1100 pacjentach, automatyzuje segmentację składników ciała na podstawie obrazów tomografii komputerowej, znacznie zmniejszając czas i wysiłek wymagany przy manualnej analizie. Dane testowe obejmowały 12 tysięcy pacjentów.
Wyniki wykazały, że zmiany w masie mięśniowej (jej spadek) i tkance tłuszczowej podskórnej są związane z gorszymi prognozami; wyniki jakości tłuszczu podskórnego korelowały również z ryzykiem progresji choroby. Potencjał takiej analizy stosowanej w rutynowej praktyce klinicznej jest z pewnością intrygujący; pracownicy służby zdrowia mogą skuteczniej monitorować i dostosowywać leczenie pacjentów zmagających się z rakiem płuc.
Do przeczytania w Czerwcu 🫡