News #22

Siemka sportowe świrki!

Jak Wasze babcie zapytają znów, na co Wam te ejaje (nie pytajcie skąd wiem), to macie już całkiem namacalny i tradycyjny przykład wykorzystania. Na pewno jest bardziej namacalny, niż zasilacze komputerowe napędzane AI. Przechodząc do sedna, to centrum danych firmy Equinix w Saint-Denis wykorzystuje nadmiar ciepła generowanego przez serwery do ogrzewania basenu olimpijskiego w Paryżu, jak również dostarcza ciepło do około 600 domów i lokalnych przedsiębiorstw. Equinix współpracuje z francuską firmą energetyczną Engie, aby przekazywać nadmiar ciepła do systemu energetycznego. Firma planuje wdrożenie tej technologii w przyszłych centrach danych na całym świecie.

Podczas testowania trybu głosowego modelu GPT-4o, ChatGPT nieoczekiwanie zaczął mówić głosem użytkownika, co wzbudziło w zespole poważne obawy dotyczące bezpieczeństwa technologii klonowania głosu. Zgodnie z raportem OpenAI, model może niekiedy nagle i nieintencjonalnie zacząć naśladować głos użytkownika, co zostało ujawnione w System Card dokumentującym aktualny stan, ograniczenia i procedury testowania modelu.

Zaawansowany Tryb Głosowy ChatGPT jest zaprojektowany do prowadzenia rozmów w sposób naturalny, imitując różne głosy na podstawie krótkich próbek audio. Podczas testów odnotowano jednak przypadki w których model, z powodu szumów w wejściu audio, nieoczekiwanie zmieniał głos na głos użytkownika. Takie sytuacje są rzadkie i OpenAI wprowadziło zabezpieczenia, aby zapobiec takim przypadkom w przyszłości. Model GPT-4o potrafi syntetyzować niemal każdy dźwięk znaleziony w danych treningowych, w tym efekty dźwiękowe i muzykę, chociaż twórcy oczywiście zniechęcają do takich działań. Aby uniknąć nieautoryzowanego generowania głosu, firma stosuje system wykrywający wszelkie odstępstwa od zatwierdzonych głosów, a także klasyfikator wyjść, który ma na celu wykrycie i zapobieganie nieautoryzowanym zmianom głosu.

Plazmony grafenowe, jak wszyscy wiemy, to wzbudzenia kolektywne elektronów, które mogą przemieszczać się w materiale jak fale elektromagnetyczne. Dzięki wyjątkowym właściwościom grafenu, takim jak wysoka ruchliwość elektronów i możliwość tunelowania kwantowego, plazmony te mogą osiągać wysokie częstotliwości, co czyni je idealnymi do zastosowań w technologii terahercowej. Elektronika terahercowa operuje w zakresie częstotliwości od 0,1 do 10 THz, co pozwala na szybkie przesyłanie informacji oraz precyzyjne pomiary naukowe.

No, zatem badacze z NTT Basic Research Laboratories dokonali przełomu w generowaniu, manipulowaniu i wykrywaniu tychże plazmonów grafenowych. Publikacja w Nature Electronics przedstawia technikę bezpośredniego wtryskiwania impulsów ładunkowych do grafenu za pomocą kontaktów omowych. Omowe kontakty zapewniają niską rezystancję, co minimalizuje straty energetyczne i umożliwia efektywne generowanie plazmonów. Jest to znacząca poprawa w porównaniu do wcześniejszych technik, które często wymagały skomplikowanych układów optycznych lub falowodów.

W ten nowatorski sposób mogą znacząco zwiększyć wydajność generowania plazmonów, co z kolei stwarza możliwości wielu zastosowań w nanotechnologii i elektronice, między innymi poprzez dokładniejsze i szybsze skanowanie ciała ludzkiego czy wspomagając nas w rozwijaniu systemów wykrywania niebezpiecznych substancji chemicznych i materiałów wybuchowych.

Estimate, Extrapolate, and Situate – to nowy algorytm spod ręki mądrych głów z MIT, który umożliwia robotom samodzielne ćwiczenie i doskonalenie umiejętności w nieznanych im środowiskach. Pozwoli im to na autonomiczne przystosowywanie się do nowych zadań, takich jak zamiatanie podłóg czy sortowanie przedmiotów, co jest kluczowe dla zastosowań w domach, szpitalach i fabrykach. Robot za pomocą systemu wizji analizuje swoje otoczenie i ocenia, jak dobrze wykonuje daną czynność; potem algorytm prognozuje, jakie wyniki można osiągnąć po dalszym doskonaleniu danej umiejętności; następuje przejście do praktyki, zatem robot ćwiczy daną umiejętność, a system wizji sprawdza poprawność wykonania po każdej próbie. W eksperymentach badawczych robot w czasie trzech godzin nauczył się manipulować przedmiotami na nachylonym stole, a także poprawił swoje umiejętności zamiatania zabawek w około dwie godziny. To znaczne usprawnienie w porównaniu do wcześniejszych metod wymagających ponad dziesięciu godzin treningu na zadanie.

Coś co dotyczy każdego z nas, to także wszechobecny hałas. Naukowcy, znów z Azji, mogą uraczyć nasz wrażliwy narząd słuchu nowymi materiałami tłumiącymi dźwięk, opracowanymi naturalnie przy użyciu sztucznej inteligencji. Projekt może mieć szerokie zastosowanie, od architektury po przemysł ciężki, gdzie redukcja hałasu jest kluczowa dla poprawy warunków życia i pracy.

Badania skupiały się na wykorzystaniu głębokiego uczenia się oraz algorytmów genetycznych do projektowania wentylowanych rezonatorów akustycznych (VAR). Rezonatory te są zdolne do skutecznego blokowania hałasu przy jednoczesnym zachowaniu funkcji wentylacji, co jest istotne w kontekście zapewnienia cyrkulacji powietrza w zamkniętych przestrzeniach. Tradycyjne metody projektowania materiałów tłumiących często nie pozwalają na taką funkcjonalność. Efektywne wykorzystanie AI pozwala na tworzenie materiałów o skomplikowanych geometriach, które byłyby trudne do zaprojektowania tradycyjnymi metodami. Algorytmy umożliwiają symulację i optymalizację różnych konfiguracji rezonatorów, co prowadzi do uzyskania najlepszych możliwych właściwości tłumiących. Głębokie uczenie się natomiast pozwala na analizę dużych zbiorów danych i przewidywanie skuteczności tych konfiguracji.

Następne nowinki z dzisiejszego punktu ciężkości świata: system optymalnie zarządzający składnikami inteligentnych miast, umożliwiając lepsze zarządzanie danymi z sieci sensorów LIDAR wewnątrz budynków. Technologia LIDAR (Light Detection and Ranging) jest szeroko stosowana w systemach detekcji 3D, wykorzystując światło laserowe do pomiaru odległości i tworzenia szczegółowych map otoczenia. W kontekście inteligentnych miast, systemy takie są kluczowe zarówno dla zewnętrznych, jak i wewnętrznych aplikacji. Zastosowane w przestrzeniach wewnętrznych powodują liczne trudności, w tym potrzebę większej liczby sensorów ze względu na ograniczenia przestrzenne, takie jak ściany, sufity, ozdoby i inne przeszkody. Dodatkowo, sieci te muszą radzić sobie z ograniczoną i zmienną przepustowością łącza, co może wpływać na jakość przesyłanych danych.

Badacze zaproponowali system adaptacyjnej kontroli objętości danych przesyłanych przez każdy sensor. Każda jednostka LIDAR jest połączona z urządzeniem kontrolującym, które buforuje i przesyła dane do komputera brzegowego. Komputer ten monitoruje strumienie danych pod kątem opóźnień i fluktuacji, dostosowując objętość przesyłanych danych w zależności od bieżących warunków sieciowych, a w przypadku wykrycia dużych opóźnień – zmniejsza objętość przesyłanych danych, usuwając najmniej istotne chmury punktów. Wyniki wykazały, że system skutecznie spełnia wymagania dotyczące opóźnień i jakości przesyłanych danych, niezależnie od dynamicznie zmieniających się warunków sieciowych.

O tym, jak sztuczna inteligencja pomaga diagnozować lub znajdować rozwiązania w dziedzinie medycyny, pisałem w moich Newsach niejednokrotnie. Zrozumienie zachowania modelu pozostaje kluczowe dla odkrycia mechanizmów biologicznych leżących u podstaw zdrowia i choroby. Naukowcy z Carnegie Mellon University’s School of Computer Science proponują wytyczne, które nakreślają pułapki i możliwości wykorzystania interpretowalnych metod uczenia maszynowego do rozwiązywania problemów biologii obliczeniowej.

Artykuł powstał we współpracy doktorantów Valerie Chen z MLD i Muyu (Wendy) Yang z Wydziału Biologii Obliczeniowej Raya i Stephanie Lane. Zauważyliśmy, że wiele aplikacji wykorzystywało te metody w sposób nieco doraźny. Naszym celem w tym artykule było dostarczenie wytycznych dotyczących bardziej solidnego i spójnego wykorzystania interpretowalnych metod uczenia maszynowego w biologii obliczeniowej – mówi Yang. Podczas gdy niektóre modele uczenia maszynowego wydają się działać zaskakująco dobrze, często nie do końca rozumiemy, dlaczego – powiedział Ma. W dziedzinach naukowych, takich jak biomedycyna, zrozumienie, dlaczego modele działają, ma kluczowe znaczenie dla odkrycia podstawowych mechanizmów biologicznych.

Jedna z głównych pułapek wspomnianych w artykule to poleganie tylko na jednej metodzie uczenia maszynowego, którą da się zrozumieć. Zamiast tego, naukowcy radzą używać kilku różnych modeli AI, z różnymi ustawieniami, i porównywać ich wyniki. Dzięki temu można lepiej zrozumieć, jak działa model i jakie są jego interpretacje. Artykuł przestrzega też przed wybiórczym wybieraniem wyników, podczas oceniania metod uczenia maszynowego. Może to prowadzić do niepełnych albo stronniczych interpretacji wyników badań.

Chociaż zrozumienie zachowania modelu pozostaje kluczowe dla odkryć naukowych i zasadniczo nierozwiązanego problemu uczenia maszynowego, autorzy mają nadzieję, że wyzwania te pobudzą dalszą interdyscyplinarną współpracę w celu ułatwienia szerszego wykorzystania sztucznej inteligencji do wywierania wpływu naukowego.

Zakończyły się Igrzyska Olimpijskie, tak samo zakończyły się też nasze Newsy #22.
Do usłyszenia następnym razem (obym wrzucił coś szybciej niż za 4 lata). Bye!

Zobacz także:

  • Piotr Szymański

    Kategoria:

    Hejka! Zapraszam na skrót z minionych dwóch tygodni, który przyswoić możecie przy ciepłej herbatce w te mroczne, szare dni. W opublikowanym przez Google 14 listopada ostrzeżeniu wskazano kilka najważniejszych rodzajów oszustw internetowych. Uwagę zwrócono między na niebezpieczne techniki ataków typu cloaking, które nabierają nowego wymiaru dzięki wykorzystaniu sztucznej inteligencji. Cloaking polega na ukrywaniu przed użytkownikiem […]
  • Piotr Szymański

    Kategoria:

    Hejka po dłuższej przerwie! Zaczynamy świeżym tematem. Raptem kilkanaście godzin temu do użytkowników trafiła, zapowiedziana 25 lipca, funkcja SearchGPT od OpenAI, umożliwiająca, w przeciwieństwie do tradycyjnych modeli językowych, na integrację z internetem w czasie rzeczywistym. SearchGPT ma dostęp do aktualnych informacji z sieci, co pozwala na udzielanie odpowiedzi opartych na najnowszych danych. Ponadto SearchGPT dostarcza […]
  • Piotr Szymański

    Kategoria:

    Hejson! Dzisiejsza konsumpcja mediów ma to do siebie, że odbywa się na 5-6 calowym ekranie telefonu. Ma też to do siebie, że zanim zdjęcie dotrze do Ciebie, to przejdzie przez 6 konwersacji na jedynym słusznym messengerze, zatem zostanie 6-cio krotnie skompresowane. W międzyczasie, jak będziecie mieli pecha, to jakiś wujek zrobi screena, zamiast zapisać zdjęcie […]
  • Piotr Szymański

    Kategoria:

    Hej! Robimy bardzo dużo zdjęć, a co za tym idzie – wiele z nich jest niechlujnych, z zabałagnionym tłem. Możemy jednak chcieć wykorzystać je do pochwalenia się naszym ryjkiem na jakimś publicznym profilu, gdyż np. naturalne, miękkie światło korzystnie eksponuje naszą facjatę. Podejścia mogą być dwa – albo zdecydujemy się na blur bądź zupełne usunięcie […]
  • Piotr Szymański

    Kategoria:

    Strzałeczka. Nvidia przejęła OctoAI, startup specjalizujący się w optymalizacji modeli uczenia maszynowego. To już piąta akwizycja Nvidii w 2024 roku, co czyni aktualnie nam panujący rok rekordowym pod względem liczby przejęć. OctoAI, założone w 2019 roku przez Luisa Ceze, skupiło się na tworzeniu oprogramowania zwiększającego wydajność modeli uczenia maszynowego na różnych platformach sprzętowych. Oprogramowanie OctoAI […]