UE jest pionierem standardów sztucznej inteligencji, ponieważ rządy próbują regulować produkty takie jak ChatGPT

Unia Europejska ustanawia ramy regulacyjne dla sztucznej inteligencji

Niedawne spotkanie we Frankfurcie w Niemczech było etapem ujawnienia na urządzeniach technologicznych emblematu aplikacji OpenAI ChatGPT, tuż obok akronimu „AI” (Sztuczna Inteligencja), oznaczającego znaczący moment w rozwoju tej technologii.

#RAEconsultas Akronim „AI” jest używany jako skrót od „sztucznej inteligencji”. W języku hiszpańskim akronimy są niezmienne w formie pisemnej: „IA”. 3/4

– RAE (@RAEinforma) 12 maja 2023 r

Postępy legislacyjne w zakresie sztucznej inteligencji

Unia Europejska zrobiła zdecydowany krok, uzgadniając zestaw pionierskich standardów wykorzystania i rozwoju sztucznej inteligencji. Wydarzenie to ma szansę stać się pierwszym poważnym aktem prawnym regulującym tę technologię w świecie zachodnim.

Przedstawiciele głównych instytucji UE poświęcili całe dni na definiowanie i dopracowywanie propozycji legislacyjnych. Część debaty toczyła się wokół regulacji generatywnych modeli sztucznej inteligencji, odpowiedzialnych za tworzenie platform takich jak ChatGPT oraz zarządzania narzędziami identyfikacji biometrycznej, do których zaliczają się rozpoznawanie twarzy i skanowanie linii papilarnych.

Stanowiska krajowe w sprawie regulacji

Pomimo tendencji w kierunku wspólnych ram regulacyjnych Niemcy, Francja i Włochy wykazały preferencję dla samoregulacji modeli generatywnej sztucznej inteligencji, sugerując wdrażanie kodeksów postępowania ustalanych przez rządy, a nie bezpośrednich przepisów.

W tych krajach istnieją obawy dotyczące tego, jak rygorystyczne regulacje mogą ograniczyć zdolność Europy do konkurowania z gigantami technologicznymi z Chin i Stanów Zjednoczonych. W Europie obiecujące start-upy w sektorze AI mają Niemcy i Francja, takie jak DeepL i Mistral AI.

Unijne prawo dotyczące sztucznej inteligencji: precedens w regulacjach

Ten nowy zbiór przepisów, unijne prawo dotyczące sztucznej inteligencji, jest bezprecedensową inicjatywą skupiającą się szczególnie na sztucznej inteligencji. Jej korzenie sięgają 2021 r., wraz z propozycją Komisji Europejskiej dotyczącą ustanowienia jednolitych ram prawnych i regulacyjnych dla sztucznej inteligencji.

LER  Google ulepsza chatbota Barda o sztuczną inteligencję „Gemini” w wyścigu z ChatGPT

Prawo klasyfikuje sztuczną inteligencję według poziomów ryzyka, od „niedopuszczalnych” – technologii, które powinny zostać zakazane – po technologie uważane za wysokie, średnie i niskie.

Generatywna sztuczna inteligencja w oku huraganu

Generatywna sztuczna inteligencja stała się tematem wielkiego zainteresowania po publicznym uruchomieniu ChatGPT OpenAI pod koniec ubiegłego roku. Jej pojawienie się po wstępnych propozycjach UE w 2021 r. skłoniło decydentów do ponownego rozważenia swojego podejścia do tej technologii.

Narzędzia takie jak ChatGPT, Stable Diffusion, Bard firmy Google i Claude firmy Anthropic zaskoczyły ekspertów i organy regulacyjne swoją zdolnością do generowania wyrafinowanych, przypominających ludzkie wyniki na podstawie prostych pytań i dużych ilości danych. Spotkały się one z krytyką ze względu na obawy, czy mogą zastąpić miejsca pracy, używać dyskryminującego języka i naruszać prywatność.

Implikacje branżowe

Jako ilustracja podkreślono potencjał generatywnej sztucznej inteligencji w zakresie optymalizacji procesów selekcji w sektorach takich jak opieka zdrowotna, a także innych możliwych zastosowań biznesowych.