System generatywnej sztucznej inteligencji Google, Bard, ma potencjał, by zrewolucjonizować opiekę zdrowotną

Wyścig o wdrożenie technologii sztucznej inteligencji (AI) w sensowny sposób nigdy nie był bardziej zacięty. W szczególności generatywna sztuczna inteligencja podbiła ostatnio świat, tworząc całą domenę aplikacji, technologii i potencjalnej wartości.

JP Morgan Insights opublikował niedawno artykuł zatytułowany „Czy Generative AI zmieni zasady gry?” wyjaśniając, że „Generative AI – kategoria algorytmów sztucznej inteligencji, które mogą generować nowe treści na podstawie istniejących danych – została okrzyknięta kolejną granicą dla różnych branż, od technologii po bankowość i media”. Gokul Hariharan, współdyrektor ds. technologii, mediów i telekomunikacji w regionie Azji i Pacyfiku w JP Morgan, powtórzył dalej, że „generatywna sztuczna inteligencja zasadniczo ogranicza pieniądze i czas potrzebne do tworzenia treści — w tekście, kodzie, dźwięku, obrazach, wideo i ich kombinacjach. ” — torując drogę przełomowym innowacjom.

Niezaprzeczalnie firmy technologiczne chcą być w czołówce tej innowacji.

Na początku zeszłego tygodnia Google ogłosiło długo oczekiwany kolejny krok naprzód w odniesieniu do generatywnej sztucznej inteligencji. Na oficjalnym blogu Google Słowo kluczowe, Sissie Hsiao, wiceprezes ds. produktu, i Eli Collins, wiceprezes ds. badań, wprowadzili otwarty dostęp do Bard, eksperymentu, który umożliwia użytkownikom bezpośrednią interakcję z generatywną platformą sztucznej inteligencji Google i odpowiednie dzielenie się opiniami.

Autorzy wyjaśnili: „Dzisiaj zaczynamy otwierać dostęp do Bard, wczesnego eksperymentu, który pozwala współpracować z generatywną sztuczną inteligencją […] Możesz użyć Barda, aby zwiększyć swoją produktywność, przyspieszyć swoje pomysły i podsycić ciekawość. Możesz poprosić Barda, aby udzielił ci wskazówek, jak osiągnąć swój cel, jakim jest przeczytanie większej liczby książek w tym roku, wyjaśnić fizykę kwantową w prosty sposób lub pobudzić swoją kreatywność, opisując post na blogu. Do tej pory wiele się nauczyliśmy, testując Barda, a następnym krytycznym krokiem w ulepszaniu go jest uzyskanie opinii od większej liczby osób”.

W artykule wyjaśniono również koncepcję stojącą za dużym modelem językowym (LLM), technologią, która zasila system: „Bard jest zasilany przez badawczy model dużego języka (LLM), w szczególności lekką i zoptymalizowaną wersję LaMDA, i zostanie zaktualizowany o nowsze, bardziej wydajne modele z czasem. Opiera się na rozumieniu przez Google informacji wysokiej jakości. Możesz myśleć o LLM jako o silniku predykcyjnym. Po otrzymaniu monitu generuje odpowiedź, wybierając jedno słowo na raz spośród słów, które prawdopodobnie pojawią się jako następne. Wybieranie najbardziej prawdopodobnego wyboru za każdym razem nie prowadziłoby do bardzo kreatywnych odpowiedzi, więc należy uwzględnić pewną elastyczność. Nadal obserwujemy, że im więcej osób z nich korzysta, tym lepiej LLM potrafią przewidzieć, jakie odpowiedzi mogą być pomocne”.

LaMDA, skrót od „Language Model for Dialogue Applications”, to przełom Google w budowaniu adaptacyjnego modelu języka konwersacyjnego, wyszkolonego w zakresie zaawansowanego dialogu i niuansów ludzkiego języka. Teraz Google stosuje iterację tego przełomu z Bardem, aby, miejmy nadzieję, przekształcić technologię w coś, co może być przydatne i tworzyć wartość dla użytkowników.

Bez wątpienia technologia ta ma niesamowity potencjał implikacji dla opieki zdrowotnej. Najbardziej oczywistym zastosowaniem jest to, że przy odpowiednio wyszkolonych i przetestowanych modelach pacjenci mogą zacząć szukać porad i zaleceń lekarskich w systemie, zwłaszcza jeśli interfejs konwersacyjny jest solidny. Oczywiście należy do tego podchodzić z ostrożnością, ponieważ modele są tak dobre, jak dane, na których są szkolone, a nawet wtedy mogą popełniać błędy.

Autorzy artykułu wyjaśniają, że „Chociaż LLM są ekscytującą technologią, nie są pozbawione wad. Na przykład, ponieważ uczą się z szerokiego zakresu informacji, które odzwierciedlają rzeczywiste uprzedzenia i stereotypy, czasami pojawiają się one w ich wynikach. Mogą też podawać niedokładne, wprowadzające w błąd lub fałszywe informacje, prezentując je w sposób pewny siebie. Na przykład, poproszony o podzielenie się kilkoma sugestiami dotyczącymi łatwych roślin doniczkowych, Bard w przekonujący sposób przedstawił pomysły… Następnie przedstawiają przykład, w jaki sposób system zaproponował nieprawidłową nazwę naukową dla rośliny Zamioculcas Zamiifolia.

Jednakże, jeśli zostanie to zrobione prawidłowo, istnieje ogromny potencjał w zakresie umożliwienia rozmowy o umiejętnościach medycznych, być może nawet jako sposób pomocy lekarzom i specjalistom w tworzeniu planów diagnostycznych lub pomostowej opiece nad ich pacjentami.

Na większą skalę możliwość trenowania intuicyjnych modeli, takich jak te, zapewnia doskonałą okazję do uzyskania solidnych spostrzeżeń z danych. Opieka zdrowotna to branża warta biliony dolarów, w której co roku produkowane są terabajty danych. Nakładanie zaawansowanych modeli sztucznej inteligencji i uczenia maszynowego na te dane może zapewnić znaczące możliwości lepszego zrozumienia i wykorzystania tych informacji dla większego dobra.

Z pewnością istnieje wiele wyzwań etycznych i związanych z bezpieczeństwem, które należy wziąć pod uwagę w przypadku sztucznej inteligencji, a zwłaszcza w przypadku generatywnej sztucznej inteligencji. W produktach takich jak te istnieje wiele zagrożeń, które firmy technologiczne muszą rozwiązać, począwszy od tworzenia mowy nienawiści i języka, który może być niewłaściwie używany, po generowanie wprowadzających w błąd informacji, które mogą być szczególnie niebezpieczne w środowisku opieki zdrowotnej. Bez wątpienia pacjenci powinni szukać opieki medycznej wyłącznie u przeszkolonych i licencjonowanych pracowników służby zdrowia.

Niemniej jednak Google i inne firmy tworzące tak zaawansowane narzędzia mają ogromny potencjał w rozwiązywaniu niektórych z najtrudniejszych problemów świata. W związku z tym podejmują również znaczną odpowiedzialność za tworzenie tych produktów w sposób bezpieczny, etyczny i zorientowany na konsumenta. Jednakże, jeśli zostanie wykonana prawidłowo, technologia może potencjalnie zmienić opiekę zdrowotną dla przyszłych pokoleń.

Treść tego artykułu nie sugeruje, że jest i nie powinna być polegana ani zastępowana profesjonalną poradą medyczną, diagnozą lub leczeniem w jakikolwiek sposób i nie jest napisana ani zamierzona jako taka. Ta treść służy wyłącznie celom informacyjnym. Skonsultuj się z wyszkolonym lekarzem w celu uzyskania porady medycznej.

Źródło: https://www.forbes.com/sites/saibala/2023/03/26/googles-generative-ai-system-bard-has-the-potential-to-revolutionize-healthcare/