News #21

Cześć!

Wam, młodym, dynamicznym, przepełnionym optymizmem niewątpliwie udziela się atmosfera wakacji, toteż dużo czasu Wam dziś nie zajmę 🙂

Meta ogłosiła wydanie modelu sztucznej inteligencji Llama 3.1, dystrybuowanego w modeli open-source, i podejmującego rywalizację z modelami, takimi jak GPT-4. Llama 3.1 405B składa się z 405 miliardów parametrów, co czyni go największym stworzonym przez Metę do tej pory.
Ponadto deweloperzy mają do dyspozycji wersje 8B i 70B, różniących się wielkością i mocą obliczeniową. Z kontekstem rozszerzonym do 128K, model ten oferuje zaawansowane funkcje przetwarzania tekstu i jest elastyczny w użyciu dzięki architekturze typu decoder-only transformer.

Jedną z kluczowych zalet nowego modelu ma być jego efektywność kosztowa. Cukierberg stwierdził, że inferencje na modelu 405B mogą być przeprowadzane z obniżeniem kosztów nawet o 50% w porównaniu z dużymi, zamkniętymi modelami. Wwiceprezes Meta ds. generatywnej sztucznej inteligencji przewiduje natomiast, że Lama 3.1 będzie modelem cenionym wśród programistów jako nauczyciel dla innych, mniejszych modeli. Produkt jest dziś dostępny do swobodnego testowania przez użytkowników za pośrednictwem aplikacji Meta AI, choć w wersji podglądowej – znaczy to nie więcej, iż użytkownicy mają ograniczoną liczbę zapytań tygodniowo przed przełączeniem na model o niższej jakości.

https://www.marktechpost.com/2024/07/27/llama-3-1-vs-gpt-4o-vs-claude-3-5-a-comprehensive-comparison-of-leading-ai-models/

Firma Snowflake ogłosiła wprowadzenie nowego modelu Snowflake-Arctic-Embed-m-v1.5, charakteryzującego się 109 milionami parametrów. Przełom osiągnięto w zakresie kompresji i wydajności, dzięki zastosowaniu zaawansowanych technik takich jak Matryoshka Representation Learning oraz jednolitej kwantyzacji skalarnej, umożliwiające kompresję wektorów osadzania do zaledwie 128 bajtów – nie tracąc przy tym znacząco na jakości. Jest to szczególnie istotne dla aplikacji wymagających efektywnego przechowywania i szybkiego odzyskiwania danych. Miękko brzmiący model Snowflake-Arctic-Embed-m-v1.5 osiąga imponujące wyniki w benchmarku MTEB, co potwierdza jego skuteczność nawet przy dużej kompresji.

Reddit podjął zdecydowane kroki, aby chronić swoje dane przed nieautoryzowanym dostępem przez duże wyszukiwarki i ich web crawlery napędzane AI. Strona będzie blokować dostęp do postów swoich użytkowników, chyba, że wyszukiwarki zapłacą za przywilej ich indeksowania. Google już pewien czas temu zawarło kontrowersyjną umowę o wartości 60 milionów dolarów, pozwalając swoim botom na indeksowanie nowych treści z Reddit’a. Wcześniej w tym roku, Reddit zaktualizował swój plik robots.txt, aby uniemożliwić web crawlerom dostęp do swoich danych bez zgody. Znana marka zrzeszająca w swym zarządzie filantropów, czyli Microsoft, również szanuje te zmiany; albowiem rzeczniczka Microsoftu, Caitlin Roulston, potwierdziła, że firma przestrzega standardów robots.txt i honoruje dyrektywy stron internetowych dotyczące wykorzystania publikowanych treści.

Ksum Nole domyślnie szkoli swojego chatbota Grok na Twoich postach wyrażających oburzenie z powodu praworządności w Polsce. To informacja, przed którą stanąć musieli wszyscy publikujący swoje smęty na X. Opcja, ukryta w ustawieniach prywatności platformy, pozwala zrezygnować z używania danych do szkolenia Grok’a. Zrezygnować, bo domyślnie są one dostępne dla celów szkoleniowych modelu. Oburzenie szybko ogarnęło platformę, ale powoli już wszyscy zapominają. Co odważniejsi zajrzeli nawet do polityki prywatności z poprzedniego roku, na którą naturalnie się godzili.

Naukowcy opracowali nowy, zaawansowany model prognostyczny oparty na sztucznej inteligencji, który może wcześniej i zarazem dokładniej przewidywać rozwój chorób starczych, w tym choroby Alzheimera. Algorytm ten, bazujący na danych klinicznych, okazał się być trzykrotnie precyzyjniejszy niż obecnie stosowane metody, takie jak ocena atrofii substancji szarej mózgu czy wyniki testów poznawczych.

Model AI umożliwia kategoryzację pacjentów odwiedzających kliniki pamięci na trzy grupy: osoby, których objawy pozostaną stabilne, osoby, u których obawy będą rozwijać się powoli, oraz osoby, u które Alzheimer będzie rozwijać się szybko.

Prof. Zoe Kourtzi z Uniwersytetu Cambridge, współautorka badania, podkreśla, że narzędzie to, wykorzystując jedynie dane z testów poznawczych i skanów MRI, jest znacznie bardziej czułe niż obecne metody w przewidywaniu, czy i jak szybko ktoś przejdzie od łagodnych objawów do pełnoobjawowej choroby Alzheimera. Może to znacząco poprawić samopoczucie pacjentów, wskazując, kto wymaga najpilniejszej opieki i eliminując niepewność dla tych, którzy pozostaną stabilni.

Model już został przetestowany na danych pochodzących z rzeczywistych klinik w Wielkiej Brytanii i Singapurze, dzięki czemu może być stosowany w praktycznych warunkach klinicznych. Badacze planują teraz rozszerzyć model na inne formy demencji, takie jak demencja naczyniowa i frontotemporalna, oraz uwzględnić inne typy danych, na przykład markery z testów krwi.

W przyszłości model może stać się narzędziem do przypisywania pacjentów do odpowiednich ścieżek diagnostycznych i terapeutycznych, przyspieszając tym samym odkrywanie nowych leków modyfikujących chorobę.

Miłego tygodnia!

Zobacz także:

  • Piotr Szymański

    Kategoria:

    Hejka! Zapraszam na skrót z minionych dwóch tygodni, który przyswoić możecie przy ciepłej herbatce w te mroczne, szare dni. W opublikowanym przez Google 14 listopada ostrzeżeniu wskazano kilka najważniejszych rodzajów oszustw internetowych. Uwagę zwrócono między na niebezpieczne techniki ataków typu cloaking, które nabierają nowego wymiaru dzięki wykorzystaniu sztucznej inteligencji. Cloaking polega na ukrywaniu przed użytkownikiem […]
  • Piotr Szymański

    Kategoria:

    Hejka po dłuższej przerwie! Zaczynamy świeżym tematem. Raptem kilkanaście godzin temu do użytkowników trafiła, zapowiedziana 25 lipca, funkcja SearchGPT od OpenAI, umożliwiająca, w przeciwieństwie do tradycyjnych modeli językowych, na integrację z internetem w czasie rzeczywistym. SearchGPT ma dostęp do aktualnych informacji z sieci, co pozwala na udzielanie odpowiedzi opartych na najnowszych danych. Ponadto SearchGPT dostarcza […]
  • Piotr Szymański

    Kategoria:

    Hejson! Dzisiejsza konsumpcja mediów ma to do siebie, że odbywa się na 5-6 calowym ekranie telefonu. Ma też to do siebie, że zanim zdjęcie dotrze do Ciebie, to przejdzie przez 6 konwersacji na jedynym słusznym messengerze, zatem zostanie 6-cio krotnie skompresowane. W międzyczasie, jak będziecie mieli pecha, to jakiś wujek zrobi screena, zamiast zapisać zdjęcie […]
  • Piotr Szymański

    Kategoria:

    Hej! Robimy bardzo dużo zdjęć, a co za tym idzie – wiele z nich jest niechlujnych, z zabałagnionym tłem. Możemy jednak chcieć wykorzystać je do pochwalenia się naszym ryjkiem na jakimś publicznym profilu, gdyż np. naturalne, miękkie światło korzystnie eksponuje naszą facjatę. Podejścia mogą być dwa – albo zdecydujemy się na blur bądź zupełne usunięcie […]
  • Piotr Szymański

    Kategoria:

    Strzałeczka. Nvidia przejęła OctoAI, startup specjalizujący się w optymalizacji modeli uczenia maszynowego. To już piąta akwizycja Nvidii w 2024 roku, co czyni aktualnie nam panujący rok rekordowym pod względem liczby przejęć. OctoAI, założone w 2019 roku przez Luisa Ceze, skupiło się na tworzeniu oprogramowania zwiększającego wydajność modeli uczenia maszynowego na różnych platformach sprzętowych. Oprogramowanie OctoAI […]