Pionier sztucznej inteligencji odszedł z Google’a i ostrzega. „Może doprowadzić do powstania autonomicznej broni” Najnowsze wiadomości ze świata

Pionier sztucznej inteligencji odszedł z Google’a i ostrzega. „Może doprowadzić do powstania autonomicznej broni”

Geoffrey Hinton, naukowiec nazywany często “ojcem chrzestnym sztucznej inteligencji” odszedł z pracy w Google’u, by ostrzegać przed zagrożeniami związanymi z AI. Myślałem, że AI stanie się bardziej inteligentna niż ludzie za 30-50 lat lub później; oczywiście teraz już tak nie sądzę – powiedział Hinton w wywiadzie dla “New York Timesa”.

Rozwój modeli sztucznej inteligencji, takich jak związany z Microsoftem ChatGPT czy konkurencyjnego oprogramowania opracowywanego przez Google’a jest coraz bardziej niebezpieczny – ostrzega naukowiec.

Internet może zostać zalany przez fałszywe grafiki, nagrania i teksty, tak że przeciętny odbiorca “nie będzie już w stanie odróżnić, co jest prawdą” – uważa Hinton.

Technologia AI może też wywrócić do góry nogami dotychczasowy rynek pracy, na razie jest w stanie zastąpić przede wszystkim pracowników zajmujących się żmudnymi zadaniami, takich jak asystenci, tłumacze czy sekretarki, ale to się może zmienić – zaznacza rozmówca “NYT” w opublikowanym w poniedziałek wywiadzie.

Przyszłe wersje AI mogą być ostatecznie zagrożeniem dla ludzkości, ponieważ analizują ogromne ilości danych i często uczą się zupełnie nieoczekiwanego zachowania – podkreśla Hinton. To ma znaczenie, ponieważ ludzie i firmy pozwalają sztucznej inteligencji nie tylko na pisanie oprogramowania, ale również na uruchamianie go, co pewnego dnia może doprowadzić do powstania autonomicznej broni – dodaje.

Trudno jest także zapobiec temu, by AI nie była wykorzystywana przez złych ludzi do złych celów – ocenia Hinton. Wyścig między koncernami technologicznymi może przerodzić się w wyścig między państwami, którego mogą nie być w stanie kontrolować międzynarodowe regulacje, jak udało się to zrobić z bronią jądrową – ostrzega.

Największą nadzieją jest porozumienie naukowców dotyczące sposobów panowania nad AI; sądzę, że ta technologia nie powinna być rozwijana do czasu, gdy uda się zrozumieć, czy możemy ją kontrolować – konkluduje badacz.

Urodzony w Wielkiej Brytanii Hinton przez wiele lat pracował na uniwersytecie w kanadyjskim Toronto. Przez całą karierę akademicką i zawodową zajmował się sztuczną inteligencją, w szczególności sieciami neuronowymi. Jak podkreśla, nie odszedł z Google’a, by krytykować poczynania tej konkretnej firmy, ale by mówić o zagrożeniach związanych z rozwojem sztucznej inteligencji bez zwracania uwagi na to, jak może to wpłynąć na Google’a.

“Google zachowuje się bardzo odpowiedzialnie” – zaznaczył Hinton w poniedziałkowym wpisie na Twitterze.

Źródło: PAP Autor: adj/ ap/
Fot. pixabay/zdj. ilustracyjne

Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Prywatności Możesz określić warunki przechowywania lub dostępu do plików cookies w Twojej przeglądarce.

Zamknij