Założyciel SpaceX: działanie sztucznej inteligencji wymaga prawnego uregulowania

13 marca 2018, 10:55
head
Ilustracja: Pixabay

Zdaniem Elona Muska, szefa Tesli i twórcy projektu SpaceX, sztuczna inteligencja jest groźniejsza, niż głowice jądrowe. Jak stwierdził Musk podczas konferencji SXSW w Austin (Teksas), eksperci w tej dziedzinie mocno przeceniają swoje umiejętności.

Elon Musk zaznaczył wyraźnie, że nie zgadza się z optymizmem towarzyszącym dyskusjom o rozwoju technologii sztucznej inteligencji.

Eksperci zajmujący się sztuczną inteligencją w rzeczywistości nie są tak mądrzy, jak w swoich własnych przekonaniach. Takie myślenie przenosi się na tych, którzy naprawdę mają coś do zaoferowania; ludziom nie podoba się pomysł, jakoby maszyna miała być od nich mądrzejsza.

Elon Musk, szef SpaceX

"Sztuczna inteligencja mnie przeraża i ma dużo większe możliwości, niż jej obecne perspektywy rozwoju. Również dużo większe, niż ktokolwiek obecnie potrafiłby przewidzieć" - stwierdził Elon Musk, dodając, że sferę rozwoju tej technologii trzeba jak najprędzej uregulować. "Sztuczna inteligencja potrzebuje organu, który będzie nadzorował jej działanie. Stanowi zagrożenie dużo większe, niż głowice jądrowe. Dlaczego do tej pory nie stworzyliśmy żadnego organu regulacyjnego? To czyste szaleństwo" - dodał szef Tesli.

Jego zdaniem, sztuczna inteligencja powinna posłużyć ludzkości do "maksymalizacji wolności" i musi pójść w kierunku "tworzenia bliskiego partnerstwa" pomiędzy "społecznym i cyfrowym myśleniem". "Już teraz jesteśmy cyborgami" - dodał Musk, uzasadniając swoje twierdzenie istotną rolą, jaką w życiu większości współczesnych ludzi odgrywają smartfony, praktycznie "będące przedłużeniem osobowości".

Podczas SXSW Elon Musk podjął także dyskusję na temat eksploracji kosmosu, rozwoju technologii samochodów autonomicznych i możliwej trzeciej wojny światowej. Według Muska, wszystkie te rzeczy wydarzą się na świecie w przewidywalnej przyszłości.

PAP - mini

Space24
Space24
KomentarzeLiczba komentarzy: 5
niezmiennie
środa, 14 marca 2018, 21:08

Ale z tego wynika, że wciąż głupota jest przyczyną zagrożenia. Obojętnie czy dotyczy sztucznej inteligencji, czy nie. I o to się martwmy, szczególnie w naszych rodzimych realiach.

Kowalskiadam154
środa, 14 marca 2018, 10:51

Wy się regulujcie a Rosja Chiny etc będą rozwijać i mieć gdzieś wasze regulacje

inżynier
wtorek, 13 marca 2018, 22:32

Chyba większym zagrożeniem są globalne korporacje, cyberdane osobowe, cyberprzestępczość. Sztuczna Inteligencja, nieshakowana, nie jest obecnie znaczącym zagrożeniem. Apropo ile jeszcze czasu banki pozwolą okradać klientów poprzez zaniechanie działań wobec kopiowania magnetycznych kart bankomatowych???

żenada
wtorek, 13 marca 2018, 13:52

Musk mocno przecenia SWOJE możliwości poznawcze, faceta się słucha jak zgaszonego radia. Może niech myślenie zostawi specjalistom ze swoich firm bo tylko dzięki ich pracy ktoś go jeszcze słucha. Typowy szef, myśli że jak jest właścicielem środków produkcji i zarabia na osiągnięciach innych to znaczy też że wie od nich lepiej.