Warszawa

-0.28°C
Clear Sky Humidity: 86%
Wind: NW at 2.57 M/S
4.71°C / 9.25°C
4.22°C / 9.3°C
3.44°C / 9.31°C
6.33°C / 9.4°C

Liderzy AI nawołują do zatrzymania AI na 6 miesięcy – napisali sami do siebie!

Liderzy AI nawołują do zatrzymania AI na 6 miesięcy – napisali sami do siebie!

Niespełna miesiąc temu światowi liderzy AI wystosowali List Otwarty, w którym nawołują do zatrzymania rozwoju AI na 6 miesięcy. Instytut Przyszłości Życia (Future of Life Institute) skontaktował się z niektórymi swoimi członkami, którzy podpisali list otwarty, który został opublikowany w Internecie 29 marca tego roku. Sygnatariusze wyrazili szereg obaw, w tym wokół szalejącego wzrostu wielkojęzycznych modeli AI (LLM), a także niekontrolowanego szumu medialnego dotyczącego AI. List został opublikowany na stronie organizacji Future of Life Institute, która odpowiedzialna jest za całą inicjatywę.

Kontrowersyjne wydaje się być, że właśnie ta organizacja prowadzi taką inicjatywę. W jej szeregach zasiadają giganci i mózgi branży Tech (włączając Elona Muska), którzy rozwijają te niebezpieczne technologie, równocześnie sami przed nimi ostrzegając – innymi słowy, ostrzegają przed samymi sobą. Nasuwają się w związku z absurdem tej sytuacji dość retoryczne pytania: Czy oni ten List wystosowali do samych siebie? Czy dostaną na niego odpowiedź i jaką? Oraz jaki może być skutek takiego listu? Znamy tę strategię. Wszystko wskazuje na to, że jest to kolejne przedstawienie, by masom ludzi wydawało się, że mądre głowy walczą o życie na Ziemi, o ludzkość i jej przetrwanie, a oni sami nie muszą nic robić w tym kierunku. List podpisali m.in. Elon Musk, Steve Wozniak, Yuval Noah Harari (technokraci i transhumaniści pełną parą, zatem cała koncepcja listu od razu zapala w głowie wiele czerwonych żarówek). List i pełna lista sygnatariuszy (na ten moment 27565 osób) tutaj.

Można powiedzieć, że List wywołał burzę w środowisku ludzi, którzy śledzą rozwój AI, zarówno jej sympatyków, jak i przeciwników. Dyskusje na kanałach YT trwaja cały czas, planowane są kolejne, co widzę w zapowiedziach premier (np. u popularnego Glenna Becka). Eliezer Shlomo Yudkowsky (amerykański badacz sztucznej inteligencji, szczególnie technologicznej osobliwości i propagator „friendly artificial intelligence”- przyjacielskiej sztucznej inteligencji; samouk, nie uczył się w szkole średniej ani na uniwersytecie, nie stosuje się do systemu akademickiego; współzałożyciel MIRI – Instytutu Badań Inteligencji Maszyn) w czasopiśmie Time napisał: „wyłączcie to wszystko” i „Najbardziej prawdopodobnym rezultatem zbudowania nadludzko inteligentnej sztucznej inteligencji w warunkach zbliżonych do obecnych okoliczności jest to, że dosłownie wszyscy na Ziemi umrą”. Kolejnym przykładem sygnatariusza jest Grady Booch, główny naukowiec działu inżynierii oprogramowania w IBM, który tak uzasadniał powód podpisania apelu:

„Modele generatywne są niewiarygodnymi narratorami. Problemów z modelami wielojęzycznymi jest wiele: istnieją uzasadnione obawy dotyczące wykorzystywania przez nie informacji bez zgody; mają widoczne uprzedzenia rasowe i seksualne; generują dezinformację na dużą skalę; nie rozumieją, a jedynie stwarzają iluzję zrozumienia, szczególnie w dziedzinach, w których są dobrze wyszkolone z korpusem zawierającym stwierdzenia zrozumienia. Modele te są wypuszczane przez korporacje, które nie zapewniają przejrzystości co do swojego korpusu, architektury, barier ochronnych ani zasad postępowania z danymi użytkowników. Moje doświadczenie i moja etyka zawodowa podpowiadają mi, że muszę zająć stanowisko, a podpisanie listu jest jednym z takich stanowisk” (Grady Booch na stronie IEEE Spectrum).

List brzmi następująco:

„Systemy sztucznej inteligencji z inteligencją współzawodniczącą z ludźmi mogą stanowić poważne zagrożenie dla społeczeństwa i ludzkości, jak wykazały szeroko zakrojone badania potwierdzone przez czołowe laboratoria sztucznej inteligencji. Jak stwierdzono w powszechnie akceptowanych Zasadach Asilomar AI, zaawansowana sztuczna inteligencja może stanowić głęboką zmianę w historii życia na Ziemi i powinna być planowana i zarządzana z odpowiednią troską i zasobami. Niestety, ten poziom planowania i zarządzania nie ma miejsca, mimo że w ostatnich miesiącach laboratoria sztucznej inteligencji utknęły w wymykającym się spod kontroli wyścigu, aby rozwijać i wdrażać coraz potężniejsze cyfrowe umysły, których nikt, nawet ich twórcy, nie są w stanie zrozumieć, przewidywać lub niezawodnie kontrolować.

Współczesne systemy sztucznej inteligencji stają się obecnie konkurencyjne dla ludzi w zadaniach ogólnych i musimy zadać sobie pytanie: czy powinniśmy pozwolić maszynom zalewać nasze kanały informacyjne propagandą i nieprawdą? Czy powinniśmy zautomatyzować wszystkie zawody, w tym te przynoszące człowiekowi spełnienie? Czy powinniśmy rozwijać nieludzkie umysły, które mogą ostatecznie przewyższyć liczebnie, przechytrzyć i zastąpić nas? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją? Takie decyzje nie mogą być przekazywane niewybieralnym liderom technologicznym. Potężne systemy sztucznej inteligencji powinny być opracowywane tylko wtedy, gdy mamy pewność, że ich efekty będą pozytywne, a związane z nimi ryzyko będzie możliwe do opanowania. Ta pewność musi być dobrze uzasadniona i wzrastać wraz z wielkością potencjalnych skutków systemu. Niedawne oświadczenie OpenAI dotyczące Ogólnej Sztucznej Inteligencji stwierdza, że „w pewnym momencie może być ważne uzyskanie niezależnej oceny przed rozpoczęciem szkolenia przyszłych systemów, a w przypadku najbardziej zaawansowanych wysiłków uzgodnienie ograniczenia tempa wzrostu mocy obliczeniowej wykorzystywanej do tworzenia nowych modeli”. Zgadzamy się. Ten punkt jest teraz.

Dlatego wzywamy wszystkie laboratoria AI do natychmiastowego wstrzymania na co najmniej 6 miesięcy szkolenia systemów AI potężniejszych niż GPT-4. Ta przerwa powinna być jawna i możliwa do zweryfikowania oraz obejmować wszystkie kluczowe podmioty. Jeśli taka przerwa nie może zostać szybko uchwalona, rządy powinny wkroczyć i wprowadzić moratorium.

Laboratoria sztucznej inteligencji i niezależni eksperci powinni wykorzystać tę przerwę, aby wspólnie opracować i wdrożyć zestaw wspólnych protokołów bezpieczeństwa dla zaawansowanego projektowania i rozwoju sztucznej inteligencji, które są rygorystycznie kontrolowane i nadzorowane przez niezależnych ekspertów zewnętrznych. Protokoły te powinny gwarantować ponad wszelką wątpliwość, że systemy, które się do nich stosują, są bezpieczne. Nie oznacza to ogólnie przerwy w rozwoju sztucznej inteligencji, a jedynie wycofanie się z niebezpiecznego wyścigu do coraz większych, nieprzewidywalnych modeli z coraz to nowszymi możliwościami.

Badania i rozwój sztucznej inteligencji powinny zostać ponownie skoncentrowane na uczynieniu dzisiejszych potężnych, najnowocześniejszych systemów dokładniejszymi, bezpieczniejszymi, łatwiejszymi do interpretacji, przejrzystymi, niezawodnymi, spójnymi, godnymi zaufania i lojalnymi.

Równolegle programiści AI muszą współpracować z decydentami, aby radykalnie przyspieszyć rozwój solidnych systemów zarządzania AI. Powinny one obejmować co najmniej: nowe i zdolne organy regulacyjne zajmujące się sztuczną inteligencją; nadzór i śledzenie wysoce wydajnych systemów sztucznej inteligencji i dużych zasobów mocy obliczeniowej; systemy pochodzenia i znaków wodnych pomagające odróżnić prawdziwe od syntetycznych i śledzić wycieki modeli; solidny ekosystem audytu i certyfikacji; odpowiedzialność za szkodę wyrządzoną przez AI; solidne publiczne finansowanie badań technicznych nad bezpieczeństwem sztucznej inteligencji; oraz dobrze wyposażone instytucje do radzenia sobie z dramatycznymi zakłóceniami gospodarczymi i politycznymi (zwłaszcza w demokracji), które spowoduje sztuczna inteligencja.

Ludzkość może cieszyć się wspaniałą przyszłością dzięki sztucznej inteligencji. Po pomyślnym stworzeniu potężnych systemów sztucznej inteligencji możemy teraz cieszyć się „latem sztucznej inteligencji”, w którym czerpiemy korzyści, konstruując te systemy z wyraźną korzyścią dla wszystkich i dając społeczeństwu szansę na przystosowanie się. Społeczeństwo wstrzymało się od innych technologii o potencjalnie katastrofalnych skutkach. Możemy to zrobić. Cieszmy się długim latem z AI, a nie pędźmy nieprzygotowani do jesieni.”

Instytut przedstawia swoją misję w następujący sposób: „Misją Instytutu Przyszłości Życia, założonego w 2015 roku, jest ukierunkowanie przełomowej technologii w kierunku przynoszącym korzyści życiu i z dala od ekstremalnych zagrożeń na dużą skalę (…) Wierzymy, że sposób, w jaki potężna technologia jest rozwijana i wykorzystywana, będzie najważniejszym czynnikiem determinującym perspektywy na przyszłość życia. Dlatego naszą misją jest zapewnienie, aby technologia nadal poprawiała te perspektywy. Od swoich najwcześniejszych dni cywilizacja ludzka – a przez nią w coraz większym stopniu całe życie na Ziemi – była kształtowana przez technologię. W obecnych dziesięcioleciach dzieje się jednak coś bezprecedensowego. Ludzkość ma teraz moc wpływania, a nawet niszczenia życia na Ziemi jako całości. A ostatnio, dzięki ciągłemu rozwojowi biotechnologii i inteligencji maszyn, wkroczyliśmy w erę, w której życie i inteligencja będą tworzone przez życie i inteligencję, a nie przez ewolucję. Szybko rosnąca moc tych technologii sugeruje, że zmiany, które nastąpią w ciągu następnych kilkudziesięciu lat i ich wpływ na długoterminową przyszłość życia, będą prawdopodobnie głębokie i niebezpieczne.”

Instytut zajmuje się czterema głównymi obszarami, z których ostatni mocno wskazuje, czyją agendę realizuje Instytut. Te obszary to: Sztuczna Inteligencja, Biotechnologia, Broń nuklearna i Zmiany Klimatu. Również o pandemii Covid-19 Instytut pisze w narracji zgodnej z wizją ONZ i WEF (dane z rejestru Transparency Register UE potwierdza, że afiliacja Instytutu z ONZ jest faktem).

W zakadce poświęconej stypendiom i grantom czytamy: „Kryzysy takie jak COVID-19 pokazują nam, że nasza cywilizacja jest krucha i musi lepiej planować z wyprzedzeniem. Dotacje FLI są przeznaczone dla tych, którzy poważnie traktują tę niestabilność, którzy chcą badać zagrożenia związane z coraz potężniejszymi technologiami i opracowywać strategie ich ograniczania. Celem jest wygranie wyścigu mądrości: wyścigu między rosnącą mocą naszej technologii a mądrością, z jaką nią zarządzamy.
Niedawno ogłosiliśmy program wieloletnich grantów w wysokości 25 milionów dolarów, którego celem jest odwrócenie równowagi od wyginięcia w kierunku rozkwitu. Jest to możliwe dzięki hojności pioniera kryptowalut Vitalika Buterina i społeczności Shiba Inu. Program ma na celu oferowanie szeregu możliwości stypendialnych w obszarach bezpieczeństwa egzystencjalnego sztucznej inteligencji, polityki i nauk behawioralnych.” Suma przeznaczona na stypendia jest, jak widać, bardzo wysoka jak na „niezależną organizację non-profit”.

Na stronie Transparency Register prowadzonej przez Unię Europejską możemy znaleźć więcej informacji na temat Instytutu, jak również jego finansowania. Główne biuro znajduje się w Narberth, PA, w Stanach Zjdenoczonych, drugie biuro, odpowiedzialne za kontakty z Unią Europejską, jest w Brukseli (Belgia). Na czele Instytutu jako jego Prezydent stoi Max Erik Tegmark – szwedzko-amerykański fizyk, kosmolog i badacz sztucznej inteligencji, profesor w Massachusetts Institute of Technology (MIT).
Czytamy dalej o kilku obszarach działania Instytutu od chwili jego utworzenia:

Główne wnioski ustawodawcze UE lub ukierunkowane polityki:
- Ustawa o sztucznej inteligencji, dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję, rozporządzenie w sprawie broni autonomicznej.

Działania edukacyjne (wydarzenia, kampanie, publikacje itp.) związane z powyższymi politykami UE (wybrane):
- Stanowisko FLI w sprawie odpowiedzialności AI, Future of Life Institute, listopad 2022 r.
- Wezwanie do lepszej ochrony osób dotkniętych u źródła łańcucha wartości AI, Future of Life Institute, październik 2022 r.
- Propozycja definicji systemów sztucznej inteligencji ogólnego przeznaczenia, Future of Life Institute, październik 2022 r.
- UE musi (bardziej) chronić przed manipulacją AI, EurActiv, luty 2022 r.
- Dokument przedstawiający stanowisko w sprawie ustawy o sztucznej inteligencji, Future of Life Institute, sierpień 2021 r.
- Istnieją śmiercionośne autonomiczne bronie – muszą zostać zbanowane, Instytut Inżynierów Elektryków i Elektroników (IEEE) Spectrum, czerwiec 2021 r.
- List otwarty w sprawie przezorności w regulacji AI, Future of Life Institute, 2020.
- Broń autonomiczna: list otwarty od naukowców zajmujących się sztuczną inteligencją i robotyką, 24. Międzynarodowa Wspólna Konferencja na temat Sztucznej Inteligencji, 2015.

Wydarzenia:
- Warsztaty dla akredytowanych asystentów parlamentarnych pt. „Zarządzanie systemami sztucznej inteligencji ogólnego przeznaczenia”
- Z Globalnymi Doradcami Dentons, „Regulacja Sztucznej Inteligencji Ogólnego Przeznaczenia” (wideo dostępne na naszym kanale YouTube)

Odpowiednie strony internetowe prowadzone przez FLI:
- futureoflife.org, strona główna
- Artificialintelligenceact.eu, zapewnia analizę ustawy o sztucznej inteligencji oraz dwutygodnik
- autonomousweapons.org opowiada się za uregulowaniem autonomicznej broni.

Dalej przechodzimy do informacji o Członkostwie i afiliacji:

Członkostwo w stowarzyszeniach/(kon)federacjach/sieciach lub innych organach:
- Panel Wysokiego Szczebla Sekretarza Generalnego ONZ ds. Współpracy Cyfrowej – Okrągły Stół 3C ds. Sztucznej Inteligencji.
- Partnerstwo ds. AI, koalicja non-profit zaangażowana w odpowiedzialne korzystanie ze sztucznej inteligencji.

Lista organizacji, sieci i stowarzyszeń, których jest członkiem i/lub z którymi jest powiązany:
- Future of Life Institute jest członkiem Association for the Advancement of Artificial Intelligence (AAAI)- Stowarzyszenie Rozwoju Sztucznej Inteligencji
- Instytut uczestniczy również w Forum Współpracy w zakresie Sztucznej Inteligencji, sieci prowadzonej wspólnie przez Brookings i Centre for European Policy Studies (CEPS).

W końcu docieramy do źródeł finansowania: dotacje i darowizny. Sprawdzając źródła finansowania na stronie internetowej Instytutu, możemy znaleźć następujący opis:

„Finansowanie – Instytut Przyszłości Życia to niezależna organizacja non-profit finansowana przez szereg osób i organizacji, które podzielają nasze pragnienie zmniejszenia globalnego, katastroficznego i egzystencjalnego ryzyka związanego z potężnymi technologiami.
Jesteśmy głęboko wdzięczni osobom, które przekazały ponad 1500 darowizn na rzecz FLI od jej powstania w 2014 roku. Z wyjątkiem Jaana Tallinna, który zasiadał w Radzie Dyrektorów FLI od jej powstania, darczyńcy ci nie mają wpływu na stanowisko FLI, co jest ustalane przez naszą pięcioosobową Radę Dyrektorów i wewnętrzne zespoły FLI na podstawie najnowszych badań akademickich oraz wkładu z konferencji i konsultacji.
FLI jest organizacją zorientowaną na misję i nieustannie dąży do dywersyfikacji finansowania.”

Natomiast strona Transparency Register EU jeszcze bardziej precyzuje, skąd płyną pieniądze dla Instytutu.

„Wpłaty w zamkniętym roku budżetowym (powyżej 10 000 EUR i 10% całkowitego budżetu) – imię i nazwisko wpłacającego oraz kwota:
Fundacja Muska – 3 531 696
Zobowiązania założycieli – 482 959
Fundacja Społeczności Doliny Krzemowej – 44 146
Network for Good – 12 431
Cały budżet: 4 086 165 €.”

Czy zatem możemy czuć się bezpieczni wiedząc o tym liście? Myślę, że nie (chodź wśród sygnatariuszy są też osoby, których obecność tam cieszy), a raczej powinien on obudzić nas z letargu i zadziałać jako dzwon przebudzenia. Powinniśmy jako społeczeństwo ludzi poważnie potraktować to, co dzieje się właśnie wokół AI i wziąć odpowiedzialność za to, w jakim kierunku pójdziemy jako ludzkość. Temat będziemy kontynuować w kolejnych artykułach, a już niedługo w naszym sklepie książka Cyrusa A. Parsy „AI: Zagrożenia dla Ludzkości”.

Książki: Rockefeller. Totalna Kontrola    Globalny zamach stanu    Porwane: uprowadzenia ludzi i agenda Obcych      Wynurzenie Omniwersum    Sztuczna inteligencja: zagrożenia dla ludzkości

O nas | Współpraca | Instagram | Telegram | Wydawnictwo | © Copyright eWodnik.pl |

Wszelkie prawa zastrzeżone. Żadna część tej publikacji nie może być powielana ani rozpowszechniana w jakikolwiek sposób, za pomocą urządzeń elektronicznych, mechanicznych, kopiujących, nagrywających i innych oraz przechowywana w systemach gromadzenia i udostępniania danych bez zgody właściciela praw autorskich.

Image

Portal ewodnik.pl powstał w odpowiedzi na potrzeby obecnego czasu- to okres zmiany paradygmatów w każdej dziedzinie ludzkiej cywilizacji. To platforma stworzona do publikacji niezależnych informacji i edukacji.

Newsletter

Otrzymuj wiadomości na maila