Logowanie

Ukryj panel

Strona główna
MRT Net
Reklama
Logowanie
Nick :
Hasło :
 Zapisz
Rejestracja
Zgubiłeś hasło ?

Kamerki internetowe.

Panel sterowania
MRT Net
Aktualności
Artykuły
Archiwum
Czas na narty !
Czas na rower !
Zwiedzaj Kraków
Plikownia
Linki
Kalendarz
Galeria
Radio Online
Gry Online
Twój YouTube!
Ankiety
Newsletter
RSS
Księga gości
Wyszukiwarka
Kontakt

Reklama
MRT Net

40% zniżki karnet w PKL.

Partnerzy

Wyszukiwarka
Zaawansowane szukanie

Chmura Tag'ów
Microsoft Programy Samsung Wave Android Bada Aktualności Linki Nowości Informacje Fotografia T-Mobile Technologie Adobe Specyfikacje Galaxy Premiera Zapowiedzi Intel Nvidia Kraków Architektura Biotechnologia Chip System Nawigacja Galileo Gps Windows Linux Galeria Software Hardware Top 500 Superkomputery Serwer Wirtualizacja Flash Pamięci Internet Plikownia YouTube Gry Radio Amd Panasonic Nokia Nikon Sony OS Cloud Computing Red Hat Enterprise Toshiba LTE 4G Lockheed Martin Motorola IBM Internet Explorer 11 Grafen Wirtualna Mapa Krakowa Lamusownia Kraków DVB-T2 TeamViewer 13.0 Fifa 2018 Trasy rowerowe Pro Evolution Soccer 2018 Mozilla Firefox Pity 2017 Rakiety NSM Windows 8 Sony Xperia Tablet S LEXNET Samsung Galaxy S9 Dworzec Główny Kraków PKP Windows Phone Windows 10 Microsoft Lumia 950

Czy czeka nas Dziki Zachód Sztucznej Inteligencji?



Naukowiec z MIT: nie ma sensu obawiać się AI, lecz braku regulacji jej dotyczących.

Profesor Aleksander Mądry, informatyk i szef ośrodka Deployable Machine Learning w Massachusetts Institute of Technology zajmuje się tematyką inteligencji udzielił wywiadu PAP. „Nie sądzę, by martwienie się scenariuszem rodem z filmu „Terminator” było pożyteczne, ale widzimy, że obecny rozwój sztucznej inteligencji wystarczy, by zrewolucjonizować świat. Aleks”. Ostrzega jednak, że pozostawienie świata AI bez regulacji, niczym Dzikiego Zachodu może przynieść daleko idące konsekwencje.

Ponad tysiąc inwestorów, badaczy i ekspertów od sztucznej inteligencji podpisało w marcu list otwarty wzywający do wstrzymania prac nad najbardziej zaawansowanymi modelami sztucznej inteligencji. Autorzy listu zwrócili uwagę zarówno na krótkoterminowe i przyziemne ryzyka związane z nieokiełznanym wyścigiem o coraz potężniejsze modele AI, takie jak potencjalna masowa utrata pracy czy zalew dezinformacji, jak i na „zastąpienie ludzi przez maszyny”, a nawet „utratę kontroli nad cywilizacją”.

Profesor Mądry uważa, że choć problemem związanym z zagrożeniami „superinteligencją” czy AGI (ogólnej sztucznej inteligencji) zajmują się poważni i znani ludzie, to obecnie wciąż jest to odległa perspektywa. Tymczasem istnieją znacznie pilniejsze problemy. „Nie chcę grać jasnowidza, bo w przeszłości myliłem się co do tego, jak szybko ta technologia się rozwija. Ale nie wydaje mi się, byśmy byli blisko takich scenariuszy. Myślę, że w krótkiej perspektywie zobaczymy zdumiewające rzeczy, niektóre z nich będą przypominały AGI, ale osobliwość technologiczna? Nie jesteśmy tego blisko. (…) To z pewnością możliwa przyszłość, ale nie sądzę, by obecnie była to najbardziej produktywna rzecz, którą powinno zajmować się państwo” – powiedział PAP. Jak jednak zaznacza, postęp, który widzieliśmy do tej pory wystarczy, by zmienić świat w niemal każdej dziedzinie. I podkreśla, że w większym stopniu niepokoją go bardziej przyziemne efekty szerokiego przyjęcia tej technologii, jak np. możliwe uprzedzenia wynikające z danych, na których trenowane są modele sztucznej inteligencji, czy używanie AI do dezinformacji na szeroką skalę.

Zdaniem Mądrego, niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są te modele. Jak podkreśla, sami ich twórcy nie są w stanie dokładnie określić, w jaki sposób wielkie modele językowe (LLM), takie jak ChatGPT dochodzą do swoich rozwiązań i odpowiedzi. Problem ten może zostać dodatkowo spotęgowany, w miarę jak na bazie podstawowych modeli będą powstawać kolejne, bardziej wyspecjalizowane, tworząc cały ekosystem i „łańcuch dostaw AI” - uzupełnia naukowiec.

Wynika to z tego, że interakcje pomiędzy różnymi systemami AI są bardzo słabo zbadanym obszarem, a dotychczasowe doświadczenia sugerują, że takie połączenia mogą dać nieprzewidywalne rezultaty. Jak zaznacza badacz, taki ekosystem już się tworzy i można spodziewać się eksplozji różnych zastosowań AI. „Nie jest do końca jasne, jak wyglądają te interakcje między różnymi modelami. Nie jesteśmy w stanie przewidzieć, w jaki sposób taki model może zawieść, jak może się zachowywać, jakie mieć „uprzedzenia””, a to może to wywołać bardzo konkretne i trudne do rozwiązania konsekwencje. „Może być tak, że cała ta kompozycja złożona z różnych modeli popełni jakiś poważny w skutkach błąd, nawet jeśli te pojedyncze komponenty nie popełniły osobno żadnego. I teraz pojawi się pytanie: kto ma za to odpowiadać?” Profesor zaznacza przy tym, że choć problem „halucynacji" i błędów modeli takich jak ChatGPT da się poprawić, to wyeliminowanie ich może być bardzo trudne.

Jak dodaje, w tym kontekście niepokojący był ruch obecnego lidera wyścigu AI, firmy OpenAI, by wraz z wypuszczeniem najnowszego modelu, GPT-4, skończyć z modelem open-source i zamknąć dostęp do wewnętrznych danych programu dla badaczy z zewnątrz.

„Musimy zacząć poważnie myśleć, jaki może być tu realistyczny model dla otwarcia tej „czarnej skrzynki”. Może to wymagać znacznych wysiłków publicznych" - ocenia Mądry. Dopowiada, że brak wiedzy i przejrzystości na temat tego, jak działają modele AI, prowadzi do ich antropomorfizacji przez ludzi, co jest niebezpieczne.

To, że w tę pułapkę mogą wpaść nawet eksperci od AI, pokazuje przypadek byłego już pracownika Google’a Blake’a Lemoine’a, który twierdził w mediach, że stworzony przez firmę model LaMDA osiągnął samoświadomość. „Jeśli nie widzimy, jak coś działa, zaczynamy to antropomorfizować, bo faktycznie można odnieść wrażenie, że rozmawiamy z człowiekiem. Myślę, że to bardzo niebezpieczny błąd poznawczy. Choć w pewnym sensie rozmawiamy z człowiekiem, bo to, co wypluwa z siebie model, to kreatywnie przemieszane słowa, które ktoś już kiedyś powiedział w internecie. Warto pamiętać, że te maszyny mówią jak człowiek, bo takie jest ich zadanie próbować uczyć się mówić jak człowiek, opierając się na potężnej bazie danych i tekstów” - wyjaśnia profesor Mądry. Jak dodaje, choć modele LLM są w stanie „myśleć”, czyli dochodzić do logicznych konkluzji, to są to zwykle płytkie myśli.

„Oczywiście, te narzędzia są niesamowicie zdumiewające. Jestem nimi bardzo podekscytowany i lubię z nimi pracować. Ale musimy przestać myśleć o nich jak o ludziach. One nie są świadome” - zaznacza naukowiec.

Jego zdaniem, z wyścigiem firm rozwijających systemy AI, wiąże się kilka zagrożeń. Wyjaśnia, że ponieważ tworzenie dużych modeli sztucznej inteligencji wymaga dużych środków i inwestycji, oznacza to, że kluczowy obszar gospodarki i życia może leżeć w rękach kilku największych graczy. „Myślę też, że należałoby pomyśleć, czy na przykład rząd USA powinien mieć własny model. Bo przecież nie może polegać na tym, że zawsze będzie miał do dyspozycji te z OpenAI czy Google’a”. Poza tym - argumentuje badacz - jeśli twórcy systemów będą kierować się tylko biznesową logiką wyścigu, nie zważając na względy etyczne, to efekt będzie podobny do tego, jaki widzieliśmy w przypadku mediów społecznościowych.

Jak dodaje, to samo tyczy się rywalizację USA z Chinami, która dodatkowo wywiera presję na szybkie, choć niekoniecznie dobrze przemyślane postępy. „Mój argument jest taki, że jeśli nie stworzymy sztucznej inteligencji, która odzwierciedla nasze wartości, gdy odrzucimy kwestie etyczne i kwestie praw na bok, to już przegramy. Owszem, możemy wygrać z Chinami, ale wtedy sami staniemy się Chinami. Więc jakie to jest zwycięstwo?” - pyta ekspert. I nawołuje do stworzenia regulacji - zaczynając od dobrowolnych najlepszych praktyk i dialogu, by uniknąć błędów z przeszłości. „Pesymistyczny scenariusz jest taki, że nic się nie zrobi: że będzie tak, jak z mediami społecznościowymi, których zadaniem jest maksymalizacja zysku bez względów na szersze efekty. To będzie taki Dziki Zachód. Dlatego ja muszę być optymistą, bo jeśli nic się nie zdarzy, to będzie bardzo źle” - przyznaje profesor.



źródło: mit


Jeśli chcesz otrzymywać wyczerpujące informacje z serwisu MRT Net, zaprenumeruj nasz Newsletter





Autor Komentarz
Brak komentarzy w bazie
Zegar
Aktualny czas w Kraków:

Pogoda

Aktualności
 · Infoshare 2025 - organizatorzy podsumowują konferencje i ogłaszają zwycięskie startupy
Napisane przez Pawel
( 30.06.2025 06:55 )

 · Port USB C - z wyglądu identyczny, ale diabeł tkwi w szczegółach
Napisane przez Pawel
( 27.06.2025 06:45 )

 · Android Automotive - od projekcji telefonu do pełnoprawnego systemu operacyjnego dla aut
Napisane przez Pawel
( 26.06.2025 08:35 )

 · Ponad 1/3 polskich internautów wyżej ceni odpowiedzi AI niż wyniki z Google.
Napisane przez Pawel
( 25.06.2025 06:12 )

 · Microsoft Surface Pro Copilot+ PC 5G już w T-Mobile. Urządzenie tańsze o 1700 zł
Napisane przez Pawel
( 24.06.2025 06:10 )

 · Nju z nową ofertą: więcej GB i osobne pakiety dla każdego numeru
Napisane przez Pawel
( 23.06.2025 07:07 )


Ankiety
Czy w najbliższym czasie zamierzasz zainstalować Windows 11?
Czy Windows 11 okaże się tak samo dobry jak Windows 10?
 Tak
 Nie
 Zostaje przy obecnym systemie

 
Inne sondy

Subskrybuj RSS
[RSS]

Jeżeli chcesz na bieżąco śledzić najważniejsze wydarzenia, wykorzystaj możliwość kanałów informacyjnych RSS.
Jak subskrybować kanał RSS?


Galeria
Samsung Galaxy Ring

Artykuły
1 . Czym różni się NPU od GPU - wyjaśniamy kluczowe różnice.
(14.08.2024)
2 . Wielka dziura w odporności
(15.07.2024)
3 . Na uczelniach AI będzie śledziło plagiaty AI
(19.02.2024)
4 . Eksperci: kary za nieprzestrzeganie unijnych przepisów dot. AI mogą być wyższe niż za łamanie RODO.
(26.12.2023)
5 . SpaceX wyniesie na orbitę satelitę SatRev z perowskitami Saule Technologies
(07.11.2023)
6 . Aplikacja do słuchania obrazów z kosmosu.
(23.10.2023)
7 . Eksperci: warto uczyć się korzystania z narzędzi wykorzysujących sztuczną inteligencję
(18.09.2023)
8 . Czym jest transformacja cyfrowa? Niezbędne zakłócenie.
(15.08.2023)
9 . Prywatna misja na ISS wystartowała m.in. z polskim sprzętem do badania mózgu.
(23.05.2023)
10 . Polka na liście 100 Technologists to Watch
(07.04.2023)

Popularne pliki
1 . PITy 2020
(10.01.2021)
2 . PITy 2019
(12.02.2020)
3 . PITy 2018
(18.02.2019)
4 . PITy 2017
(15.02.2018)
5 . TeamViewer 13.0
(15.02.2018)
6 . Google Chrome 64
(15.02.2018)
7 . Mozilla Firefox 58.0.2
(15.02.2018)
8 . TeamViewer 12.0
(27.04.2017)
9 . PITy 2016
(07.02.2017)
10 . PITy 2015
(26.03.2016)


^ Wróć do góry ^
Powered by MRT Net 2004-2025.