Hejka naklejka!
Świat jest podzielony. Jak zawsze, można by rzec. Wiecznie żywa reguła „dziel i rządź”, można by rzec. Świat podzielony na zwolenników sernika z rodzynkami, jak i bez rodzynków; wielbicieli sałatki jarzynowej jak i ludzi pozbawionych gustu; ludzi jeżdżących BMW, jak i masochistów, i tak dalej, i tym podobne. Przychodzę tu jednak ponad pewnymi podziałami, a dzielić, to owszem mogę, ale z Wami – pasję do rozwoju i nowoczesnych technologii!
< drinks water because sucho >
Dziś postanowiłem zajawić, a tak testowo, większą ilość ciekawostek, ale w krótszej formie. Zaczynając od pana Emada Mostaque, który ustąpił ze stanowiska dyrektora generalnego i zasiadania w zarządzie znanego nam Stability AI. Oficjalnym uzasadnieniem takiej decyzji ma być chęć „realizacji zdecentralizowanej sztucznej inteligencji”. Tak po sytuacji w Stability AI, jak i innych podmiotów na rynku, możemy zauważyć, że obecnie dużo ruchów dzieje się na kierunku ideologii, przeznaczenia, swobody dostępu do AI, a finansowa motywacja, dzięki coraz potężniejszym budżetom gigantów takich jak Google czy Microsoft, rozdziela grupy utalentowanych ludzi pracujących nad mniejszymi projektami.
Administracja USA nadal pospiesznie nadrabia zaległości w przygotowaniu prawnym swoich organów w kontekście rewolucji AI. Tym razem poznaliśmy trzy nowe zapisy, mające wspomóc bezpieczeństwo narodowe:
- Biuro Zarządzania i Budżetu Białego Domu będzie wymagać, aby agencje federalne upewniły się, że wykorzystanie sztucznej inteligencji nie zagraża “prawom i bezpieczeństwu” Amerykanów.
- Aby zwiększyć przejrzystość, agencje federalne będą musiały opublikować w Internecie listę systemów sztucznej inteligencji, z których korzystają, a także ocenę ryzyka, jakie mogą stwarzać te systemy, oraz sposobu zarządzania ryzykiem.
- Biały Dom nakazuje również wszystkim agencjom federalnym wyznaczenie dyrektora ds. sztucznej inteligencji z doświadczeniem w tej technologii, który będzie nadzorował wykorzystanie technologii sztucznej inteligencji w agencji.
Rząd USA ma ambitne plany i aktualizuje listę projektów bazujących bądź wykorzystujących sztuczną inteligencję i z pewnością chciałby mieć jak największą kontrolę i przewidywalność tego rynku dla swoich potrzeb.
Politykom, tak jak developerom, w szale dziejących się wydarzeń, zdarza się przeoczyć kilka mniej lub bardziej wartościowych sygnałów i adnotacji, co często ma katastrofalne skutki – na szczęście, dla programistów, na GitHubie pojawiła się beta-funkcjonalność AI Autofix. System ma analizować kod i znaleźć luki w zabezpieczeniach, a nawet samemu pomóc załatać aplikację – podsunie i objaśni propozycję poprawek, posługując się przy tym modelem GPT-4. „Nasza wizja bezpieczeństwa aplikacji to środowisko, w którym znalezione oznacza naprawione”. Funkcja używa CodeQL, aparatu analizy semantycznej udostępnionego w 2019 roku. Na chwilę obecną oferta jest dostępna dla klientów GitHub Enterprise, a z usługi Advanced Security skorzystać możemy przy kodzie powstałym w JavaScript, Typescript, Java i Python (a niedługo C# i Go,) w prywatnych, skonfigurowanych rezpozytoriach.
Finlandia, znana z wysokiej lesistości, Laponii, wspaniałych odcinków rajdowych, Kalsarikännit i przemocy domowej, teraz chciałaby zasłynąć otwartością na rozwój sztucznej inteligencji. Nowy program edukacyjny? Jest. Pieski? Są!
Program oferowany przez uczelnie wyższe we współpracy m.in. z Microsoftem, zapewnia wszechstronne szkolenie z zakresu AI, usług chmurowych i tworzenia aplikacji. Dostępny bezpłatnie, prowadzony w języku angielskim i dający 10 ECTS. Jest też częścią programu Skills for Jobs, którego celem jest przekwalifikowanie 100 000 ekspertów technologicznych w następnych pięciu latach.
Co istotniejsze, w Finlandii zadebiutował nowatorski automat do psiej karmy, wykorzystujący, zgadnijcie co, do rozpoznawania twarzy pyszczka oraz światło UV do dezynfekcji. Jest ona wymagana, ponieważ urządzenie umożliwia psiakom na spróbowanie karmy przed zakupem. CEO firmy Prima Pet Premium, Timo Pärssinen, który stworzył markę Hau-Hau Champion, zauważył, że obecnie marnuje się całkiem sporo zwierzęcej karmy; w końcu czasem ciężko jest przekonać futrzaka do zjedzenia takiej, która niezbyt mu smakuje (posiadacz wybrednej kotki here). Mechanizm działania automatu oparty jest na oprogramowaniu identyfikującym nadchodzącego psa, następnie zrzucając karmę do miski. Gdy automat zauważy, że pies odchodzi, automatycznie dezynfekuje miskę za pomocą światła UV, przygotowując się do obsługi kolejnego „klienta”.
Naukowcy z MIT dokonali kolejnych odkryć w rozumieniu działania dużych modeli językowych, których mechanizmy dalej pozostają dla nas częściowo niezrozumiałe. Dziś wiemy, że modele wykorzystują prostą funkcję liniową do odzyskiwania i dekodowania przechowywanych informacji relacyjnych, co było zaskoczeniem dla badaczy. Ciekawym eksperymentem było zastosowanie funkcji dekodującej do ustalenia, co model wie o znanych osobach, takich jak Bill Bradley – były koszykarz i senator, który studiował na Uniwersytecie Princeton. Naukowcy mają nadzieję wykorzystać swoje odkrycia do poprawy dokładności modeli LLM, identyfikując i korygując błędne informacje przechowywane w modelu. Dążą również do lepszego zrozumienia, co dzieje się w przypadkach, gdy fakty nie są kodowane liniowo. To badanie rzuca nowe światło na działanie skomplikowanych modeli językowych i otwiera drogę do bardziej zrozumiałych i wiarygodnych systemów.
Światowa Organizacja Zdrowia (WHO) oraz Specjalny Program Narodów Zjednoczonych ds. Rozrodu Człowieka (HRP) apelują o współpracę międzynarodową i lokalną, samemu publikując nowy dokument techniczny, w którym zbadano zastosowanie sztucznej inteligencji w obszarze zdrowia seksualnego i reprodukcyjnego. W materiale znaleźć możemy uzupełnienie najnowszych wytycznych WHO dotyczących AI, np. zasady etycznego wykorzystania. Zwrócono uwagę na korzyści, takie jak ułatwienie dostępu do informacji, jak i zagrożenia, m.in. dla prywatności danych i stronniczości wnioskowania. Istotnym tematem była także przejrzystość w opracowywaniu i stosowaniu systemów AI.
Science and Technology Facilities Council, będący brytyjską agencją rządową, postawił na innowację w obszarze obliczeń superkomputerowych i zlecił instalację nowego superkomputera Lenovo ThinkSystem Neptune dla Centrum Hartree. Inwestycja, część programu Hartree National Centre for Digital Innovation o wartości 210 milionów funtów, ma na celu wzmocnienie brytyjskiego przemysłu poprzez dostęp do najnowocześniejszych technologii cyfrowych i ekspertyzy w dziedzinie AI. Nowy system to o 40% bardziej energooszczędna jednostka, oferująca moc obliczeniową 44.7 petaflopa, co przekłada się na ponad 44 biliardy operacji na sekundę. Zakup będzie miał zastosowanie w wielu sektorach, od modelowania pogody i klimatu, przez inicjatywy na rzecz czystszej energii, odkrywanie leków, aż po rozwój nowych materiałów i technologii motoryzacyjnych.
Wesołych Świąt Wielkanocnych życzymy Wam my!