News #10

Dzień dobry.

Friendship ended with ChatGPT-4, now Claude 3 Opus is my best friend. Tylko musimy przygotować się na pewnie niedogodności w związku z naszym pochodzeniem; i broń Boże nie chodzi o kolor skóry czy też rysy twarzy, ale wylosowane obywatelstwo. Jako Europa nie mamy bowiem, póki co, wygodnego dostępu do chatbota; zdaje się natomiast działać pośrednik, jak i API. Natomiast, Claude 3, wydany 4 marca przez Anthropic, stawia mocny opór GPT-4, prześcigając go w niektórych porównaniach. Szczególnie przydatny zdaje się być przy pisaniu tekstów, tłumaczeniu czy programowaniu, za to opór, to sam czuje, przy złożonych zagadnieniach matematycznych czy po prostu logicznym rozumowaniu. Wedle porównań jest także dokładniejszy w pełnym wypełnianiu poleceń użytkownika (prosisz o 10 zdań – otrzymasz 10 zdań).

Do kwestii skórnych jeszcze powrócimy, natomiast teraz przedstawię Wam ciąg dalszy opery mydlanej pod tytułem Elon Musk ma beef’a z [wstaw cokolwiek, żywego lub nie]. Kilka dni temu Elon Musk złożył pozew w San Francisco przeciwko OpenAI, którego to, przypomnijmy, był jednym z założycieli. Poglądy na temat wykorzystania i przyszłości sztucznej inteligencji, głoszone przez tych dwóch jegomości, zdecydowanie zaczęły się różnić wraz z postępami prac i poznawaniem możliwości technologii. Sam pozew dotyczyć ma naruszenia ustaleń założycielskich firmy non profit, OpenAI, z 2015 roku. Sztuczna inteligencja rozwijana miała być dla dobra ludzkości, a obecnie „Wspierana przez Microsoft firma, koncentrując się na poszukiwaniu zysków, łamie tę umowę” – stwierdzili w pozwie prawnicy Muska.

Altman miał być świadom że sztuczna inteligencja może stać się zagrożeniem dla ludzkości i z tym zagadnieniem zwrócił się do inwestorów, między innymi do Muska. Wedle rzeczonej umowy założycielskiej, organizacja OpenAI, jak mówi nazwa – open – miała być przejrzysta i prezentować otwarty kod źródłowy; nigdy nie miała być nastawiona na zysk, a przychody reinwestować i finansować dalsze badania.

Miliardy dolarów zainwestował także Microsoft, jak możemy się domyślać – nie bezinteresownie. Począwszy od GPT-4, firma przestała publikować kod źródłowy, co dotychczas miało na celu szerzenie technologii, wiedzy i ogólny rozwój i wsparcie branży. Microsoft, tworząc z OpenAI lidera na rynku, zaczął wykorzystywać technologię w swoich produktach, jak choćby bing. Pozywający żąda powrotu do genezy, tj. zakazania czerpania korzyści finansowych z działalności dla poszczególnych jej członków oraz nakazać udostępnienia technologii innym rynkowym bytom, a nie wyłącznie Microsoftowi.

5 marca firma opublikowała na swoim blogu wpis, w którym zawarła kilka, częściowo ocenzurowanych, wiadomości wymienianych z Elonem na przestrzeni lat. W mailach możemy przeczytać, że Elon zachęcał OpenAI do zebrania 1 miliarda dolarów od inwestorów i ograniczenia dzielenia się know-how wraz z upływem czasu i rozwojem systemu. Nie gardził także profitami dla siebie. Jak czytamy we wpisie: „In late 2017, we and Elon decided the next step for the mission was to create a for-profit entity. Elon wanted majority equity, initial board control, and to be CEO.”. Telenowela Muskowa, ma, nie wątpmy, swoją kontynuację jak i zupełnie nowe wątki z powodów biznesowych; z zupełnie prywatnego interesu Elona, a nie dobrodusznego dbania o interes społeczny.

Programy sztucznej inteligencji (AI) zyskały ostatnio powszechną popularność… wszędzie – w tym w dermatologii do oceny, diagnozowania i leczenia chorób skóry. Jak donosi International Journal of Dermatology, badacze przeanalizowali niedawno wszystkie opublikowane w tym zakresie badania z ostatnich 10 lat, aby ocenić obecne programy sztucznej inteligencji stosowane do celów dermatologicznych. Odkryli znaczące niedociągnięcia po zastosowaniu tych programów do oceny zmian skóry kolorowej (SOC – skin of color).

Problemy wynikały głównie z niedostatecznej próbki badawczej osób z SOC w zestawach danych. Drugą kwestią jest problem z jakością obrazu oraz jego standaryzacją – wyniki wskazują, że obecne programy sztucznej inteligencji znacznie gorzej radzą sobie z identyfikacją zmian skórnych w SOC. Ponadto tylko 30% programów zidentyfikowanych w tej analizie zawierało dane dotyczące konkretnie SOC.

Rodzaj skóry jest ważnym czynnikiem, gdyż ciemniejsze odcienie skóry wiążą się ze zwiększonym ryzykiem przebarwień i powstawania bliznowców. W połączeniu z wadliwymi zbiorami danych, niedostateczna reprezentacja osób z SOC w literaturze dermatologicznej i badaniach jest poważnym problemem, który może przyczynić się do luk w algorytmach sztucznej inteligencji.

Konieczny jest rozwój tych aplikacji w postaci uzupełnienia zbiorów danych o obrazy skóry o ciemniejszej karnacji. W przyszłości uzasadnione są dalsze badania, aby lepiej zrozumieć skuteczność sztucznej inteligencji we wspomaganiu diagnozowania i leczenia pacjentów z SOC.

W niedawnym badaniu opublikowanym w czasopiśmie Nature Hypertension Research naukowcy przeanalizowali odpowiedzi udzielane przez narzędzia sztucznej inteligencji ChatGPT i Bing na pytania dotyczące metod monitorowania ciśnienia krwi w warunkach domowych. Porównali je pod kątem kompletności, dokładności i odtwarzalności, aby określić, jak wiarygodne były te narzędzia w dostarczaniu wiedzy o schorzeniach. Naukowcy wykorzystali zalecenia światowych towarzystw naukowych na temat domowego monitorowania ciśnienia krwi, aby przetestować dokładność, odtwarzalność i kompletność odpowiedzi udzielanych przez Bing i ChatGPT.

Dziesięć pytań w tym kwestionariuszu zostało opartych na zaleceniach British Hypertension Society, Royal College of Australia i American Heart Association. Pytania dotyczyły szerokiego zakresu tematów, takich jak przygotowanie do pomiaru ciśnienia krwi, w tym konieczny czas odpoczynku, rodzaj ubioru, korzystanie z mankietu do pomiaru ciśnienia krwi oraz pozycja ciała podczas wykonywania pomiarów. Pytania dotyczyły również liczby pomiarów, które należy wykonać, oraz prawidłowej metody rejestrowania i odczytywania domowego ciśnieniomierza.

Bing miał niższe wyniki niż ChatGPT pod względem kompletności i odtwarzalności. Chociaż różne odpowiedzi udzielone przez Bing zawierały pewne istotne informacje, nie wszystkie szczegóły oczekiwane w odniesieniu do tego pytania zostały zawarte we wszystkich odpowiedziach. Powtarzające się pytania były również dostarczane przez Bing z różnymi odpowiedziami, co obniżało wynik odtwarzalności.

Wyniki pokazały, że narzędzia sztucznej inteligencji, takie jak ChatGPT i Bing, były przydatne w znajdowaniu odpowiedzi na zadane pytania. Odpowiedzi udzielone przez ChatGPT były zarówno dokładne, wiarygodne jak i wysoce powtarzalne. Jednak, chociaż Bing okazał się potężnym narzędziem do zdobywania wiedzy, naukowcy uważają, że należy zachować ostrożność podczas interpretacji odpowiedzi udzielanych przez produkt Microsoftu.

Życzę Wam znośnego tygodnia 🙂

Zobacz także:

  • Piotr Szymański

    Kategoria:

    Hejka naklejka! Google przeprowadza restrukturyzację swojego zespołu finansowego, kładąc większy nacisk na inwestycje w sztuczną inteligencję. Zmiany, o których poinformowała główna dyrektor finansowa Google, Ruth Porat, obejmują zwolnienia oraz przeniesienia pracowników i są odpowiedzią na spowolnienie wzrostu przychodów z reklam, jednocześnie stawiając na rosnącą rolę AI. CFO zaznaczyła, że restrukturyzacja jest częścią szerszej strategii przystosowania […]
  • Piotr Szymański

    Kategoria:

    Cześć! Zapraszam do podsumowania minionych 2 tygodni, wiadomości, które zaciekawiły mnie podczas surfowania po sieci telekomunikacyjnej Internet. Sekretarz Sił Powietrznych USA Frank Kendall ogłosił plany lotu myśliwcem F-16 sterowanym przez sztuczną inteligencję. Próba ma odbyć się wiosną tego roku i ma na celu zaprezentowanie potencjału sztucznej inteligencji w walce powietrznej, podkreślając przejście wojska w kierunku […]
  • Piotr Szymański

    Kategoria:

    Hejka naklejka! Świat jest podzielony. Jak zawsze, można by rzec. Wiecznie żywa reguła „dziel i rządź”, można by rzec. Świat podzielony na zwolenników sernika z rodzynkami, jak i bez rodzynków; wielbicieli sałatki jarzynowej jak i ludzi pozbawionych gustu; ludzi jeżdżących BMW, jak i masochistów, i tak dalej, i tym podobne. Przychodzę tu jednak ponad pewnymi […]
  • Piotr Szymański

    Kategoria:

    Siemson sportowe świry! Dumni po zwycięstwie, wierni po porażce. Tym razem jednak bez wstydu, hańby i kompromitacji. Nie podejrzewam naszego sztabu szkoleniowego o klasyczną inspirację rozwiązaniem stosowanym w Liverpoolu, natomiast nie miał bym nic przeciwko. We współpracy z Google DeepMind powstał bowiem TacticAI, model predykcyjny wspomagający wysiłki trenerów. Już w 2021 potrafił zgadnąć gdzie piłkarz […]
  • Piotr Szymański

    Kategoria:

    Hæ vinir! Dinozaury. Kto z nas nie byłby na pewnym etapie życia zafascynowany tymi uroczymi gadami. Nawet nie wiecie, ile Nas z nimi łączy! Nie tylko tak samo jesteśmy owodniowcami, ale i wyginiemy. Może nawet całkiem niedługo. Mrocznie się zrobiło, nie? Ale może zakończymy jakimś przyjemnym akcentem, więc bądźcie nastrojeni. Raport, stworzony przez Gladstone AI […]