"Do czego AI nie służy. Przewodnik dla nauczycieli"

23 listopada MEiN wydało kolejny dokument opisujący możliwości zastosowania narzędzi AI w szkołach. Pierwszy poradnik – wydany w lipcu tego roku – był odpowiedzią na rosnącą popularność chatu GPT i zapytania nauczycieli o metody rozpoznawania wypracowań generowanych przez AI.

Kolejny dokument skupia się m.in. na modelach językowych, kompetencjach uczniów i nowych zagrożeniach, które niesie niewłaściwe wykorzystanie AI. W obszernej broszurze pojawiły się tematy związane z:

Reklama
  • generatywną sztuczną inteligencją (GenAI) – czyli technologią generującą nowe dane,
  • inżynierią podpowiedzi – umiejętnością zadawania pytań modelom językowym w celu uzyskania precyzyjnego rezultatu,
  • multimodalnością chatu GPT – nowe wersje narzędzia mogą już przetwarzać nie tylko tekst, ale i obrazy.
Reklama
Reklama

Nauczyciele przeczytają również o podstawowych funkcjach i zastosowaniach narzędzi: Google Bard (model językowy Google AI), Bing Chat (personalizuje korzystanie z wyszukiwarki), xAI Grok(zapytania z platformy X/Twitter), Elephas AI (zaawansowany asystent do pisania), Hugging Face (przetwarzanie języka naturalnego).

Co ciekawe, w dokumencie znalazło się m.in. krótkie podsumowanie broszury przygotowane przez chatbota.

Narzędzia AI w szkole a etyka zastosowania

Dużo miejsca w poradniku poświęcono kwestiom bezpieczeństwa i etyki stosowania sztucznej inteligencji. Twórcy dokumentu powołują się m.in. na regulacje ekspertów Unii Europejskiej ds. sztucznej inteligencji. Pierwsze, oficjalne wytyczne w zakresie etyki stosowania narzędzi AI Unia przedstawiła w 2018 roku, dokument zaktualizowano rok później.

MEiN przytacza w poradniku kluczowe wytyczne UE dotyczące tworzenia i korzystania z tzw. "godnej zaufania sztucznej inteligencji". Warto dodać, że za "twórcę AI" eksperci uznają każdego użytkownika – w tym również ucznia lub nauczyciela – który np. spersonalizuje chatbota dla własnych potrzeb.

Według najnowszych wytycznych ekspertów UE, narzędzie AI jest bezpieczne dla twórcy i użytkownika przy następujących założeniach:

  • przewodnia i nadzorcza rola człowieka,
  • solidność techniczna i bezpieczeństwo,
  • ochrona prywatności i zarządzanie danymi,
  • przejrzystość,
  • różnorodność, niedyskryminacja i sprawiedliwość,
  • dobrostan społeczny i środowiskowy,
  • odpowiedzialność.

Technologie AI a bezpieczeństwo uczniów

Autorzy poradnika uczulają pedagogów na konsekwencje rosnącej popularności sztucznej inteligencji. Największym, wyzwaniem może okazać się rosnąca ilość prac domowych, streszczeń i opracowań lektur tworzonych z pomocą chatbotów. Coraz ważniejszą kwestią staje się również prywatność użytkowników – dostęp do wrażliwych danych osobowych oraz zdjęć. Eksperci przestrzegają przed sytuacjami, w których użytkownicy Internetu poddają obróbce AI własne lub cudze fotografie oraz nagrania audio.

Kwestia przetwarzania danych osobowych dotyczy również nauczycieli i dyrektorów szkół. Autorzy poradnika podkreślają, że chatboty w szkole nie mogą być wykorzystywane m.in. do oceniania uczniów oraz przy streszczaniu dokumentacji szkolnej czy przy wypełnianiu wniosków administracyjnych:

"Pod żadnym pozorem nie wykorzystuj narzędzi AI (w tym modeli językowych) do pracy z takimi dokumentami, jak: protokoły posiedzeń rad pedagogicznych, korespondencja z PPP (np. opinie o dziecku wymagane przez instytucje takie jak sąd czy poradnia psychologiczno-pedagogiczna), wielospecjalistyczna ocena poziomu funkcjonowania ucznia (WOPFU). Takie działanie powoduje, że przekazujesz narzędziom AI dane, do których te nie powinny mieć dostępu." [źródło: gov.pl/web/laboratoria, dostęp: 29.11.23]

Jak zapowiadają specjaliści MEiN, kolejny poradnik o AI w szkole będzie dotyczyć m.in. własności intelektualnej.