Czy technologię AI da się regulować?
Dyskusje dotyczące niezbędnych regulacji toczą się od kilku lat. Przyspieszenie nastąpiło na początku 2023 roku wraz z rosnącą popularnością chatbotów. Jak podaje euronews.com – w styczniu tego roku ChatGPT przekroczył granicę 100 milionów użytkowników miesięcznie. Co ciekawe, pomimo powszechnych obiekcji dotyczących braku regulacji nowych technologii, na wdrożenie pierwszych, oficjalnych obostrzeń jeszcze się nie zdecydowano. Jedną z głównych osi dyskusji jest konieczność ochrony najmłodszych użytkowników Internetu – dzieci, uczniów, nastolatków i młodych dorosłych.
Przeciwnicy nowych cybernarzędzi wskazują na możliwe nadużycia – produkowanie treści wtórnych, zagrożenie dla prawa autorskiego i własności intelektualnej. Specjalistów tematu martwi również otwierające się pole do nadużyć w edukacji m.in. w szkołach średnich i na uczelniach wyższych.
Jak podaje euronews.com – z drugiej strony konfliktu stoją twórcy nowych narzędzi, obawiający się, że ewentualne limity dostępu zastopują rozwój technologii.
UNESCO stawia na regulacje w AI
Na regulowanie nowych narzędzi AI – w tym m.in. ChatuGPT – naciska UNESCO. Nowy raport organizacji podkreśla, że większość szkół jest zupełnie nieprzygotowana na pojawienie się nowych technologii [źródło: Guidance for generative AI in education and research, unesdoc.unesco.org, dostęp 25.10.23].
Najpilniejszym wyzwaniem w najbliższym czasie będzie m.in. wymóg regulowania dostępu do narzędzi AI dla uczniów i szkół. Specjaliści UNESCO sugerują określony limit wiekowy. W przewidywanych regulacjach zakłada się, że chatboty i podobne technologie mogą być używane wyłącznie przez uczniów w wieku powyżej 13 lat. Dyskutowana jest również opcja podniesienia limitu wiekowego do 16 lat.
Nadchodzące wyzwania dla szkół i uczniów zauważa Stefania Giannini (Zastępca Dyrektora Generalnego ds. Edukacji UNESCO). Szeroka rozpiętość możliwości – mówi Giannini o potencjale cybertechnologii – ma ogromny wpływ na edukację, ponieważ replikuje tzw. myślenie wyższego rzędu, które jest podstawą ludzkiego procesu uczenia się.
Jak wyglądają plany pierwszych regulacji dostępu do AI?
Limit wiekowy używania narzędzi AI to jedna z wielu propozycji. UNESCO zwraca również uwagę na szersze zagrożenia związane z nowymi technologiami. Organizacja obawia się m.in., że rozwój technologii powiększy przepaść pomiędzy krajami Zachodu a tzw. krajami rozwijającymi się. Fake newsy, prawo autorskie i technologia deep fake to kluczowe tematy pojawiające się w raporcie. Autorzy publikacji zauważają również, że w 2023 roku jedynie Chiny, USA i kraje Unii Europejskiej posiadają prawo, które bierze pod uwagę ochronę jednostki przed nadużyciami z wykorzystaniem AI (mowa głównie o prawach autorskich i własności intelektualnej).
Przewiduje się, że pierwsze, precyzyjne regulacje w tej materii (m.in. EU AI Act) pojawią się pod koniec roku 2023 lub na początku 2024 roku.