Rosyjscy naukowcy wątpią, że sztucznej inteligencji można bezwarunkowo ufać
Bardzo ważny temat związany z technologiami sztucznej inteligencji został poruszony na ostatnim Prezydium Rosyjskiej Akademii Nauk. Tak więc podczas dyskusji naukowcy próbowali zrozumieć, na ile można ufać sztucznej inteligencji (AI) i gdzie jest linia, po której człowiek musi sam podjąć decyzję.
Wierz lub nie Sztuczna Inteligencja
Tak więc, według prezesa Rosyjskiej Akademii Nauk A. Sergeeva, AI to tak zwana „czarna skrzynka”, której nawet sami jej twórcy nie do końca rozumieją, jak to działa. Powstaje więc bardzo logiczne pytanie: czy można ufać wnioskom sztucznej inteligencji, jeśli nie potrafimy prześledzić łańcucha wnioskowań dokonywanych przez tę „maszynę”?
Rzeczywiście, w rzeczywistości sztuczna inteligencja wykonuje już dość dużą liczbę operacji lepiej i szybciej niż ludzie.
A porzucenie nauki w zasadzie może być kuszące, bo specjalista o przeciętnych kompetencjach może wyznaczać pewne zadania i czytać odpowiedzi z AI.
Ale tylko w przypadku całkowitego i bezkrytycznego zaufania do rozwiązań AI można uzyskać bardzo zniekształcony obraz, co może być dość kosztowne.
Chodzi o to, że człowiek jest zbyt skłonny ufać technologii, ale przy sztucznej inteligencji wszystko jest znacznie bardziej skomplikowane. Chodzi o to, że ludzkość wciąż nie może w pełni wyjaśnić, jak działa ludzki mózg.
I w ten sam sposób nie ma zrozumienia, jak działa sztuczna inteligencja, która jest budowana przez analogię z ludzkim mózgiem. Rzeczywiście, sieci neuronowe opierają się na dość prostym równaniu jednego neuronu.
Ale tylko w przypadku, gdy od razu do pracy zaangażowanych jest np. 600 miliardów takich elementów, absolutnie nikt nie powie z całą pewnością, jakie połączenia powstają w sieci neuronowej.
Ponadto naukowcy zauważyli, że wraz z rozwojem sieci neuronowych pojawia się coraz więcej wad. W końcu sztuczna inteligencja na początku uczy się z milionów różnych przykładów.
Często jednak, nawet przy niewielkim odchyleniu od parametrów „wyuczonych” podczas treningu, system zaczyna dawać błędne wyniki.
Dość uderzającym przykładem jest więc sieć neuronowa stworzona przez IBM, celowo stworzona na potrzeby medyczne. Okazało się więc, że IBM AI stawia diagnozy na poziomie dość przeciętnego lekarza. Oznacza to, że chociaż technologie AI pozwalają na tworzenie inteligentnych systemów, daleko im do ideału.
I podsumowując dyskusję naukowcy doszli do wniosku, że biorąc pod uwagę stale rosnący trend w rozwoju i wykorzystaniu sztucznej inteligencji, po prostu konieczne jest stworzenie pewnego odpowiednik GOST, który umożliwi pełne wykorzystanie AI dopiero po pomyślnym przejściu przez system całej gamy testów, a naukowcy są przekonani, że AI nie będzie działać błędy.
Napisz w komentarzach, co osobiście myślisz o wykorzystaniu AI w życiu codziennym. Jeśli podobał Ci się materiał, oceń go i nie zapomnij zasubskrybować kanału. Dziękuję za uwagę!