Cześć!
Wam, młodym, dynamicznym, przepełnionym optymizmem niewątpliwie udziela się atmosfera wakacji, toteż dużo czasu Wam dziś nie zajmę 🙂
Meta ogłosiła wydanie modelu sztucznej inteligencji Llama 3.1, dystrybuowanego w modeli open-source, i podejmującego rywalizację z modelami, takimi jak GPT-4. Llama 3.1 405B składa się z 405 miliardów parametrów, co czyni go największym stworzonym przez Metę do tej pory.
Ponadto deweloperzy mają do dyspozycji wersje 8B i 70B, różniących się wielkością i mocą obliczeniową. Z kontekstem rozszerzonym do 128K, model ten oferuje zaawansowane funkcje przetwarzania tekstu i jest elastyczny w użyciu dzięki architekturze typu decoder-only transformer.
Jedną z kluczowych zalet nowego modelu ma być jego efektywność kosztowa. Cukierberg stwierdził, że inferencje na modelu 405B mogą być przeprowadzane z obniżeniem kosztów nawet o 50% w porównaniu z dużymi, zamkniętymi modelami. Wwiceprezes Meta ds. generatywnej sztucznej inteligencji przewiduje natomiast, że Lama 3.1 będzie modelem cenionym wśród programistów jako nauczyciel dla innych, mniejszych modeli. Produkt jest dziś dostępny do swobodnego testowania przez użytkowników za pośrednictwem aplikacji Meta AI, choć w wersji podglądowej – znaczy to nie więcej, iż użytkownicy mają ograniczoną liczbę zapytań tygodniowo przed przełączeniem na model o niższej jakości.
https://www.marktechpost.com/2024/07/27/llama-3-1-vs-gpt-4o-vs-claude-3-5-a-comprehensive-comparison-of-leading-ai-models/
Firma Snowflake ogłosiła wprowadzenie nowego modelu Snowflake-Arctic-Embed-m-v1.5, charakteryzującego się 109 milionami parametrów. Przełom osiągnięto w zakresie kompresji i wydajności, dzięki zastosowaniu zaawansowanych technik takich jak Matryoshka Representation Learning oraz jednolitej kwantyzacji skalarnej, umożliwiające kompresję wektorów osadzania do zaledwie 128 bajtów – nie tracąc przy tym znacząco na jakości. Jest to szczególnie istotne dla aplikacji wymagających efektywnego przechowywania i szybkiego odzyskiwania danych. Miękko brzmiący model Snowflake-Arctic-Embed-m-v1.5 osiąga imponujące wyniki w benchmarku MTEB, co potwierdza jego skuteczność nawet przy dużej kompresji.
Reddit podjął zdecydowane kroki, aby chronić swoje dane przed nieautoryzowanym dostępem przez duże wyszukiwarki i ich web crawlery napędzane AI. Strona będzie blokować dostęp do postów swoich użytkowników, chyba, że wyszukiwarki zapłacą za przywilej ich indeksowania. Google już pewien czas temu zawarło kontrowersyjną umowę o wartości 60 milionów dolarów, pozwalając swoim botom na indeksowanie nowych treści z Reddit’a. Wcześniej w tym roku, Reddit zaktualizował swój plik robots.txt, aby uniemożliwić web crawlerom dostęp do swoich danych bez zgody. Znana marka zrzeszająca w swym zarządzie filantropów, czyli Microsoft, również szanuje te zmiany; albowiem rzeczniczka Microsoftu, Caitlin Roulston, potwierdziła, że firma przestrzega standardów robots.txt i honoruje dyrektywy stron internetowych dotyczące wykorzystania publikowanych treści.
Ksum Nole domyślnie szkoli swojego chatbota Grok na Twoich postach wyrażających oburzenie z powodu praworządności w Polsce. To informacja, przed którą stanąć musieli wszyscy publikujący swoje smęty na X. Opcja, ukryta w ustawieniach prywatności platformy, pozwala zrezygnować z używania danych do szkolenia Grok’a. Zrezygnować, bo domyślnie są one dostępne dla celów szkoleniowych modelu. Oburzenie szybko ogarnęło platformę, ale powoli już wszyscy zapominają. Co odważniejsi zajrzeli nawet do polityki prywatności z poprzedniego roku, na którą naturalnie się godzili.
Naukowcy opracowali nowy, zaawansowany model prognostyczny oparty na sztucznej inteligencji, który może wcześniej i zarazem dokładniej przewidywać rozwój chorób starczych, w tym choroby Alzheimera. Algorytm ten, bazujący na danych klinicznych, okazał się być trzykrotnie precyzyjniejszy niż obecnie stosowane metody, takie jak ocena atrofii substancji szarej mózgu czy wyniki testów poznawczych.
Model AI umożliwia kategoryzację pacjentów odwiedzających kliniki pamięci na trzy grupy: osoby, których objawy pozostaną stabilne, osoby, u których obawy będą rozwijać się powoli, oraz osoby, u które Alzheimer będzie rozwijać się szybko.
Prof. Zoe Kourtzi z Uniwersytetu Cambridge, współautorka badania, podkreśla, że narzędzie to, wykorzystując jedynie dane z testów poznawczych i skanów MRI, jest znacznie bardziej czułe niż obecne metody w przewidywaniu, czy i jak szybko ktoś przejdzie od łagodnych objawów do pełnoobjawowej choroby Alzheimera. Może to znacząco poprawić samopoczucie pacjentów, wskazując, kto wymaga najpilniejszej opieki i eliminując niepewność dla tych, którzy pozostaną stabilni.
Model już został przetestowany na danych pochodzących z rzeczywistych klinik w Wielkiej Brytanii i Singapurze, dzięki czemu może być stosowany w praktycznych warunkach klinicznych. Badacze planują teraz rozszerzyć model na inne formy demencji, takie jak demencja naczyniowa i frontotemporalna, oraz uwzględnić inne typy danych, na przykład markery z testów krwi.
W przyszłości model może stać się narzędziem do przypisywania pacjentów do odpowiednich ścieżek diagnostycznych i terapeutycznych, przyspieszając tym samym odkrywanie nowych leków modyfikujących chorobę.
Miłego tygodnia!