Logowanie

Ukryj panel

Strona główna
MRT Net
Reklama
Logowanie
Nick :
Hasło :
 Zapisz
Rejestracja
Zgubiłeś hasło ?

Kamerki internetowe.

Panel sterowania
MRT Net
Aktualności
Artykuły
Archiwum
Czas na narty !
Czas na rower !
Zwiedzaj Kraków
Plikownia
Linki
Kalendarz
Galeria
Radio Online
Gry Online
Twój YouTube!
Ankiety
Newsletter
RSS
Księga gości
Wyszukiwarka
Kontakt

Reklama
MRT Net

40% zniżki karnet w PKL.

Partnerzy

Wyszukiwarka
Zaawansowane szukanie

Chmura Tag'ów
Microsoft Programy Samsung Wave Android Bada Aktualności Linki Nowości Informacje Fotografia T-Mobile Technologie Adobe Specyfikacje Galaxy Premiera Zapowiedzi Intel Nvidia Kraków Architektura Biotechnologia Chip System Nawigacja Galileo Gps Windows Linux Galeria Software Hardware Top 500 Superkomputery Serwer Wirtualizacja Flash Pamięci Internet Plikownia YouTube Gry Radio Amd Panasonic Nokia Nikon Sony OS Cloud Computing Red Hat Enterprise Toshiba LTE 4G Lockheed Martin Motorola IBM Internet Explorer 11 Grafen Wirtualna Mapa Krakowa Lamusownia Kraków DVB-T2 TeamViewer 13.0 Fifa 2018 Trasy rowerowe Pro Evolution Soccer 2018 Mozilla Firefox Pity 2017 Rakiety NSM Windows 8 Sony Xperia Tablet S LEXNET Samsung Galaxy S9 Dworzec Główny Kraków PKP Windows Phone Windows 10 Microsoft Lumia 950

Biały Dom wyda zasady dotyczące sztucznej inteligencji.



Prezydent Biden ogłosił nowe zasady wymagające od agencji rządowych pełniejszej oceny narzędzi sztucznej inteligencji, aby zapewnić, że są one bezpieczne i nie ujawniają poufnych informacji. Oczekuje się również, że rząd poluzuje politykę imigracyjną dla pracowników znających się na technologii.

Po tym, jak wcześniejsze wysiłki zmierzające do opanowania sztucznej inteligencji generatywnej (genAI) zostały skrytykowane jako zbyt niejasne i nieskuteczne, administracja Bidena ogłosiła nowe, bardziej restrykcyjne zasady korzystania z tej technologii przez pracowników federalnych.

Generatywna sztuczna inteligencja, która rozwija się w zawrotnym tempie i wywołuje poważny niepokój wśród ekspertów branżowych, skłoniła Bidena do wydania "wytycznych" w maju ubiegłego roku. Wiceprezydent Kamala Harris spotkała się również z dyrektorami generalnymi Google, Microsoft i OpenAI - twórcą popularnego chatbota ChatGPT - aby omówić potencjalne problemy związane z generatywną sztuczną inteligencją, w tym problemy związane z bezpieczeństwem, prywatnością i kontrolą.

Jeszcze przed uruchomieniem ChatGPT w listopadzie 2022 r. administracja przedstawiła plan tak zwanej "AI Bill of Rights", a także ramy zarządzania ryzykiem związanym ze sztuczną inteligencją. Oczekuje się, że nowe rozporządzenie wykonawcze podniesie krajową obronę cyberbezpieczeństwa, wymagając, aby duże modele językowe (LLM) - podstawa generatywnej sztucznej inteligencji - zostały poddane ocenie, zanim będą mogły zostać wykorzystane przez agencje rządowe USA. Agencje te obejmują Departament Obrony USA, Departament Energii i agencje wywiadowcze.

Nowe zasady wzmocnią to, co było dobrowolnym zobowiązaniem 15 firm zajmujących się rozwojem sztucznej inteligencji, aby zrobić wszystko, co w ich mocy, aby zapewnić ocenę systemów genAI, która jest zgodna z odpowiedzialnym użytkowaniem.

"Obawiam się, że nie mamy zbyt dużych osiągnięć w tej dziedzinie; szczegóły można znaleźć na Facebooku" - powiedział Tom Siebel, dyrektor generalny dostawcy aplikacji AI dla przedsiębiorstw C3 AI i założyciel Siebel Systems, publiczności na konferencji MIT EmTech w maju ubiegłego roku. "Chciałbym wierzyć, że samoregulacja zadziała, ale władza deprawuje, a władza absolutna deprawuje absolutnie".

Podczas gdy genAI oferuje szerokie korzyści dzięki możliwości automatyzacji zadań i tworzenia zaawansowanych odpowiedzi tekstowych, obrazów, wideo, a nawet kodu oprogramowania, technologia ta znana jest również z anomalii znanej jako halucynacje. "Halucynacje zdarzają się, ponieważ LLM nie mają wewnętrznej reprezentacji świata" - powiedział Jonathan Siddharth, dyrektor generalny Turing, firmy z Palo Alto w Kalifornii, która wykorzystuje sztuczną inteligencję do zdalnego wyszukiwania, zatrudniania i wdrażania inżynierów oprogramowania. "Nie zna pojęcia faktów. Przewiduje następne słowo na podstawie tego, co widziała do tej pory - to szacunek statystyczny". GenAI może również nieoczekiwanie ujawnić dane wrażliwe lub umożliwiające identyfikację jakiejś osoby. Na najbardziej podstawowym poziomie narzędzia te mogą gromadzić i analizować ogromne ilości danych z internetu, korporacji, a nawet źródeł rządowych, aby dokładniej i głębiej oferować treści użytkownikom.

Wadą jest to, że informacje zebrane przez sztuczną inteligencję niekoniecznie są bezpiecznie przechowywane. Aplikacje i sieci AI mogą sprawić, że te wrażliwe informacje będą podatne na wykorzystanie przez osoby trzecie. Na przykład smartfony i autonomiczne samochody śledzą lokalizację użytkowników i ich nawyki związane z jazdą. Podczas gdy oprogramowanie śledzące ma pomóc technologii lepiej zrozumieć nawyki, aby skuteczniej służyć użytkownikom, gromadzi ono również dane osobowe jako część dużych zbiorów danych, wykorzystywanych do szkolenia modeli sztucznej inteligencji.

Według Adnana Masooda, głównego architekta AI w firmie UST, zajmującej się usługami transformacji cyfrowej, dla firm rozwijających sztuczną inteligencję zarządzenie wykonawcze może wymagać zmiany podejścia do ich praktyk. Nowe zasady mogą również początkowo zwiększyć koszty operacyjne. "Jednak dostosowanie się do standardów krajowych może również usprawnić federalne procesy zamówień na ich produkty i zwiększyć zaufanie wśród konsumentów prywatnych" - powiedział Masood. "Ostatecznie, chociaż regulacja jest niezbędna do złagodzenia zagrożeń związanych ze sztuczną inteligencją, musi być delikatnie zrównoważona z utrzymaniem środowiska sprzyjającego innowacjom. "Jeśli zbytnio przechylimy szalę w kierunku restrykcyjnego nadzoru, szczególnie w zakresie badań, rozwoju i inicjatyw typu open source, ryzykujemy stłumienie innowacji i ustąpienie miejsca łagodniejszym jurysdykcjom na całym świecie" - kontynuował Masood.

"Kluczem jest stworzenie przepisów, które chronią interesy publiczne i krajowe, a jednocześnie napędzają kreatywność i postęp w sektorze sztucznej inteligencji". Masood powiedział, że nadchodzące regulacje Białego Domu były "długo oczekiwane i jest to dobry krok [w] krytycznym momencie w podejściu rządu USA do wykorzystania i powstrzymania technologii AI. "Mam zastrzeżenia co do rozszerzenia zasięgu regulacji na sferę badań i rozwoju" - powiedział Masood. "Charakter badań nad sztuczną inteligencją wymaga poziomu otwartości i zbiorowej kontroli, które mogą zostać stłumione przez nadmierne regulacje. W szczególności sprzeciwiam się wszelkim ograniczeniom, które mogłyby utrudnić inicjatywy AI typu open source, które były siłą napędową większości innowacji w tej dziedzinie. Te platformy współpracy pozwalają na szybką identyfikację i naprawę błędów w modelach sztucznej inteligencji, wzmacniając ich niezawodność i bezpieczeństwo".

GenAI jest również podatna na wbudowane uprzedzenia, takie jak wspomagane przez sztuczną inteligencję aplikacje rekrutacyjne, które mają tendencję do wybierania mężczyzn zamiast kobiet lub białych kandydatów zamiast mniejszości. A ponieważ narzędzia genAI stają się coraz lepsze w naśladowaniu języka naturalnego, obrazów i wideo, wkrótce niemożliwe będzie odróżnienie fałszywych wyników od prawdziwych; to skłania firmy do ustanowienia "barier ochronnych" przed najgorszymi wynikami, niezależnie od tego, czy są to przypadkowe, czy celowe wysiłki złych aktorów.

Wysiłki USA, mające na celu opanowanie sztucznej inteligencji, były następstwem podobnych wysiłków podejmowanych przez kraje europejskie w celu zapewnienia, że technologia nie generuje treści naruszających prawo UE; może to obejmować pornografię dziecięcą lub, w niektórych krajach UE, zaprzeczanie Holokaustowi. Włochy wprost zakazały dalszego rozwoju ChatGPT z powodu obaw o prywatność po tym, jak aplikacja do przetwarzania języka naturalnego doświadczyła naruszenia danych obejmującego rozmowy użytkowników i informacje o płatnościach.

"Ustawa o sztucznej inteligencji" (AI Act) Unii Europejskiej była pierwszą tego rodzaju ustawą wprowadzoną przez zachodnie kraje. Proponowane przepisy w dużej mierze opierają się na istniejących zasadach, takich jak ogólne rozporządzenie o ochronie danych (RODO), ustawa o usługach cyfrowych i ustawa o rynkach cyfrowych. Ustawa o sztucznej inteligencji została pierwotnie zaproponowana przez Komisję Europejską w kwietniu 2021 roku. Poszczególne państwa rozważają wprowadzenie własnych ograniczeń dotyczących wykorzystywania botów opartych na sztucznej inteligencji do wyszukiwania, sprawdzania, przeprowadzania rozmów kwalifikacyjnych i zatrudniania kandydatów do pracy ze względu na kwestie prywatności i uprzedzeń.

W USA Niektóre stany wprowadziły już odpowiednie przepisy. Oczekuje się również, że Biały Dom oprze się na Narodowym Instytucie Standardów i Technologii w celu zaostrzenia wytycznych branżowych dotyczących testowania i oceny systemów sztucznej inteligencji - przepisów, które opierałyby się na dobrowolnych zobowiązaniach dotyczących bezpieczeństwa, ochrony i zaufania, które administracja Bidena wydobyła w tym roku od 15 głównych firm technologicznych w zakresie sztucznej inteligencji. Posunięcie Bidena jest szczególnie ważne, ponieważ genAI przeżywa ciągły boom, prowadząc do bezprecedensowych możliwości tworzenia treści, deepfake'ów i potencjalnie nowych form cyberzagrożeń, powiedział Masood. "Ten krajobraz wyraźnie pokazuje, że rolą rządu jest nie tylko regulowanie, ale także ułatwianie i konsumowanie technologii AI" - dodał. "Nakazując federalne oceny sztucznej inteligencji i podkreślając jej rolę w cyberbezpieczeństwie, rząd USA uznaje podwójną naturę sztucznej inteligencji zarówno jako strategicznego zasobu, jak i potencjalnego ryzyka".

Masood powiedział, że jest zagorzałym zwolennikiem zniuansowanego podejścia do regulacji AI, ponieważ nadzorowanie wdrażania produktów AI jest niezbędne, aby zapewnić, że spełniają one standardy bezpieczeństwa i etyki. "Na przykład zaawansowane modele sztucznej inteligencji wykorzystywane w opiece zdrowotnej lub pojazdach autonomicznych muszą przejść rygorystyczne testy i kontrole zgodności w celu ochrony interesu publicznego" - powiedział.


źródło: nyt


Jeśli chcesz otrzymywać wyczerpujące informacje z serwisu MRT Net, zaprenumeruj nasz Newsletter





Autor Komentarz
Brak komentarzy w bazie
Zegar
Aktualny czas w Kraków:

Pogoda

Aktualności
 · Promocje na majówkę: tańsze smartfony, raty 0 zł i spore zniżki
Napisane przez Piotr
( 09.05.2025 04:15 )

 · PKP Intercity zintegrowało bilety z warszawską komunikacją miejską
Napisane przez Piotr
( 08.05.2025 06:14 )

 · Warka z nowym pozycjonowaniem, identyfikacją i kampanią - "zrzucamy zbroję"
Napisane przez Piotr
( 07.05.2025 08:09 )

 · "Minghun" - poruszający film z Marcinem Dorocińskim od 2 maja na VOD
Napisane przez Piotr
( 06.05.2025 07:07 )

 · Netflix z mocnymi wynikami. Wall Street może odetchnąć z ulgą?
Napisane przez Piotr
( 05.05.2025 06:03 )

 · Majówka 2025
Napisane przez Piotr
( 02.05.2025 06:58 )


Ankiety
Czy w najbliższym czasie zamierzasz zainstalować Windows 11?
Czy Windows 11 okaże się tak samo dobry jak Windows 10?
 Tak
 Nie
 Zostaje przy obecnym systemie

 
Inne sondy

Subskrybuj RSS
[RSS]

Jeżeli chcesz na bieżąco śledzić najważniejsze wydarzenia, wykorzystaj możliwość kanałów informacyjnych RSS.
Jak subskrybować kanał RSS?


Galeria
Samsung Galaxy Ring

Artykuły
1 . Czym różni się NPU od GPU - wyjaśniamy kluczowe różnice.
(14.08.2024)
2 . Wielka dziura w odporności
(15.07.2024)
3 . Na uczelniach AI będzie śledziło plagiaty AI
(19.02.2024)
4 . Eksperci: kary za nieprzestrzeganie unijnych przepisów dot. AI mogą być wyższe niż za łamanie RODO.
(26.12.2023)
5 . SpaceX wyniesie na orbitę satelitę SatRev z perowskitami Saule Technologies
(07.11.2023)
6 . Aplikacja do słuchania obrazów z kosmosu.
(23.10.2023)
7 . Eksperci: warto uczyć się korzystania z narzędzi wykorzysujących sztuczną inteligencję
(18.09.2023)
8 . Czym jest transformacja cyfrowa? Niezbędne zakłócenie.
(15.08.2023)
9 . Prywatna misja na ISS wystartowała m.in. z polskim sprzętem do badania mózgu.
(23.05.2023)
10 . Polka na liście 100 Technologists to Watch
(07.04.2023)

Popularne pliki
1 . PITy 2020
(10.01.2021)
2 . PITy 2019
(12.02.2020)
3 . PITy 2018
(18.02.2019)
4 . PITy 2017
(15.02.2018)
5 . TeamViewer 13.0
(15.02.2018)
6 . Google Chrome 64
(15.02.2018)
7 . Mozilla Firefox 58.0.2
(15.02.2018)
8 . TeamViewer 12.0
(27.04.2017)
9 . PITy 2016
(07.02.2017)
10 . PITy 2015
(26.03.2016)


^ Wróć do góry ^
Powered by MRT Net 2004-2025.