Dzień dobry.
Friendship ended with ChatGPT-4, now Claude 3 Opus is my best friend. Tylko musimy przygotować się na pewnie niedogodności w związku z naszym pochodzeniem; i broń Boże nie chodzi o kolor skóry czy też rysy twarzy, ale wylosowane obywatelstwo. Jako Europa nie mamy bowiem, póki co, wygodnego dostępu do chatbota; zdaje się natomiast działać pośrednik, jak i API. Natomiast, Claude 3, wydany 4 marca przez Anthropic, stawia mocny opór GPT-4, prześcigając go w niektórych porównaniach. Szczególnie przydatny zdaje się być przy pisaniu tekstów, tłumaczeniu czy programowaniu, za to opór, to sam czuje, przy złożonych zagadnieniach matematycznych czy po prostu logicznym rozumowaniu. Wedle porównań jest także dokładniejszy w pełnym wypełnianiu poleceń użytkownika (prosisz o 10 zdań – otrzymasz 10 zdań).
Do kwestii skórnych jeszcze powrócimy, natomiast teraz przedstawię Wam ciąg dalszy opery mydlanej pod tytułem Elon Musk ma beef’a z [wstaw cokolwiek, żywego lub nie]. Kilka dni temu Elon Musk złożył pozew w San Francisco przeciwko OpenAI, którego to, przypomnijmy, był jednym z założycieli. Poglądy na temat wykorzystania i przyszłości sztucznej inteligencji, głoszone przez tych dwóch jegomości, zdecydowanie zaczęły się różnić wraz z postępami prac i poznawaniem możliwości technologii. Sam pozew dotyczyć ma naruszenia ustaleń założycielskich firmy non profit, OpenAI, z 2015 roku. Sztuczna inteligencja rozwijana miała być dla dobra ludzkości, a obecnie „Wspierana przez Microsoft firma, koncentrując się na poszukiwaniu zysków, łamie tę umowę” – stwierdzili w pozwie prawnicy Muska.
Altman miał być świadom że sztuczna inteligencja może stać się zagrożeniem dla ludzkości i z tym zagadnieniem zwrócił się do inwestorów, między innymi do Muska. Wedle rzeczonej umowy założycielskiej, organizacja OpenAI, jak mówi nazwa – open – miała być przejrzysta i prezentować otwarty kod źródłowy; nigdy nie miała być nastawiona na zysk, a przychody reinwestować i finansować dalsze badania.
Miliardy dolarów zainwestował także Microsoft, jak możemy się domyślać – nie bezinteresownie. Począwszy od GPT-4, firma przestała publikować kod źródłowy, co dotychczas miało na celu szerzenie technologii, wiedzy i ogólny rozwój i wsparcie branży. Microsoft, tworząc z OpenAI lidera na rynku, zaczął wykorzystywać technologię w swoich produktach, jak choćby bing. Pozywający żąda powrotu do genezy, tj. zakazania czerpania korzyści finansowych z działalności dla poszczególnych jej członków oraz nakazać udostępnienia technologii innym rynkowym bytom, a nie wyłącznie Microsoftowi.
5 marca firma opublikowała na swoim blogu wpis, w którym zawarła kilka, częściowo ocenzurowanych, wiadomości wymienianych z Elonem na przestrzeni lat. W mailach możemy przeczytać, że Elon zachęcał OpenAI do zebrania 1 miliarda dolarów od inwestorów i ograniczenia dzielenia się know-how wraz z upływem czasu i rozwojem systemu. Nie gardził także profitami dla siebie. Jak czytamy we wpisie: „In late 2017, we and Elon decided the next step for the mission was to create a for-profit entity. Elon wanted majority equity, initial board control, and to be CEO.”. Telenowela Muskowa, ma, nie wątpmy, swoją kontynuację jak i zupełnie nowe wątki z powodów biznesowych; z zupełnie prywatnego interesu Elona, a nie dobrodusznego dbania o interes społeczny.
Programy sztucznej inteligencji (AI) zyskały ostatnio powszechną popularność… wszędzie – w tym w dermatologii do oceny, diagnozowania i leczenia chorób skóry. Jak donosi International Journal of Dermatology, badacze przeanalizowali niedawno wszystkie opublikowane w tym zakresie badania z ostatnich 10 lat, aby ocenić obecne programy sztucznej inteligencji stosowane do celów dermatologicznych. Odkryli znaczące niedociągnięcia po zastosowaniu tych programów do oceny zmian skóry kolorowej (SOC – skin of color).
Problemy wynikały głównie z niedostatecznej próbki badawczej osób z SOC w zestawach danych. Drugą kwestią jest problem z jakością obrazu oraz jego standaryzacją – wyniki wskazują, że obecne programy sztucznej inteligencji znacznie gorzej radzą sobie z identyfikacją zmian skórnych w SOC. Ponadto tylko 30% programów zidentyfikowanych w tej analizie zawierało dane dotyczące konkretnie SOC.
Rodzaj skóry jest ważnym czynnikiem, gdyż ciemniejsze odcienie skóry wiążą się ze zwiększonym ryzykiem przebarwień i powstawania bliznowców. W połączeniu z wadliwymi zbiorami danych, niedostateczna reprezentacja osób z SOC w literaturze dermatologicznej i badaniach jest poważnym problemem, który może przyczynić się do luk w algorytmach sztucznej inteligencji.
Konieczny jest rozwój tych aplikacji w postaci uzupełnienia zbiorów danych o obrazy skóry o ciemniejszej karnacji. W przyszłości uzasadnione są dalsze badania, aby lepiej zrozumieć skuteczność sztucznej inteligencji we wspomaganiu diagnozowania i leczenia pacjentów z SOC.
W niedawnym badaniu opublikowanym w czasopiśmie Nature Hypertension Research naukowcy przeanalizowali odpowiedzi udzielane przez narzędzia sztucznej inteligencji ChatGPT i Bing na pytania dotyczące metod monitorowania ciśnienia krwi w warunkach domowych. Porównali je pod kątem kompletności, dokładności i odtwarzalności, aby określić, jak wiarygodne były te narzędzia w dostarczaniu wiedzy o schorzeniach. Naukowcy wykorzystali zalecenia światowych towarzystw naukowych na temat domowego monitorowania ciśnienia krwi, aby przetestować dokładność, odtwarzalność i kompletność odpowiedzi udzielanych przez Bing i ChatGPT.
Dziesięć pytań w tym kwestionariuszu zostało opartych na zaleceniach British Hypertension Society, Royal College of Australia i American Heart Association. Pytania dotyczyły szerokiego zakresu tematów, takich jak przygotowanie do pomiaru ciśnienia krwi, w tym konieczny czas odpoczynku, rodzaj ubioru, korzystanie z mankietu do pomiaru ciśnienia krwi oraz pozycja ciała podczas wykonywania pomiarów. Pytania dotyczyły również liczby pomiarów, które należy wykonać, oraz prawidłowej metody rejestrowania i odczytywania domowego ciśnieniomierza.
Bing miał niższe wyniki niż ChatGPT pod względem kompletności i odtwarzalności. Chociaż różne odpowiedzi udzielone przez Bing zawierały pewne istotne informacje, nie wszystkie szczegóły oczekiwane w odniesieniu do tego pytania zostały zawarte we wszystkich odpowiedziach. Powtarzające się pytania były również dostarczane przez Bing z różnymi odpowiedziami, co obniżało wynik odtwarzalności.
Wyniki pokazały, że narzędzia sztucznej inteligencji, takie jak ChatGPT i Bing, były przydatne w znajdowaniu odpowiedzi na zadane pytania. Odpowiedzi udzielone przez ChatGPT były zarówno dokładne, wiarygodne jak i wysoce powtarzalne. Jednak, chociaż Bing okazał się potężnym narzędziem do zdobywania wiedzy, naukowcy uważają, że należy zachować ostrożność podczas interpretacji odpowiedzi udzielanych przez produkt Microsoftu.
Życzę Wam znośnego tygodnia 🙂