Objašnjiva umjetna inteligencija u obrazovanju: jačanje ljudskog nadzora i zajedničke odgovornosti
Umjetna inteligencija sve je prisutnija u školama – od ocjenjivanja do planiranja nastave – no znamo li kako donosi odluke i tko je za njih odgovoran? Upoznajte se s publikacijom koja obrazovnim djelatnicima pomaže razumjeti umjetnu inteligenciju na jednostavan i pristupačan način te pokazuje kako je koristiti odgovorno, transparentno i u službi učenja.
Publikacija u izdanju Europske komisije Objašnjiva umjetna inteligencija u obrazovanju: jačanje ljudskog nadzora i zajedničke odgovornosti (Explainable AI in Education: Fostering Human Oversight and Shared Responsibility) bavi se ključnim pitanjem kako osigurati transparentnu, razumljivu i odgovornu primjenu umjetne inteligencije u obrazovnim sustavima.
U kontekstu sve šire primjene umjetne inteligencije u učenju, poučavanju i obrazovnom upravljanju, publikacija naglašava važnost tzv. objašnjive umjetne inteligencije (XAI), koja omogućuje korisnicima – učenicima, nastavnicima, obrazovnim ustanovama i donositeljima odluka – razumijevanje načina na koji AI sustavi donose odluke i preporuke. Poseban naglasak stavlja se na ljudski nadzor, etičku odgovornost, zaštitu prava učenika te usklađenost s europskim zakonodavnim okvirom, uključujući Akt o umjetnoj inteligenciji i Opću uredbu o zaštiti podataka (GDPR).
Publikacija donosi pregled temeljnih pojmova objašnjive umjetne inteligencije, razmatra pravne, tehničke i pedagoške izazove njezine primjene u obrazovanju te analizira konkretne primjere uporabe, poput automatiziranog vrednovanja, inteligentnih sustava za učenje i alata za planiranje nastave. Također nudi preporuke za razvoj kompetencija nastavnika i drugih dionika kako bi se umjetna inteligencija koristila na način koji potiče povjerenje, kritičko razmišljanje i aktivnu ulogu čovjeka u obrazovnom procesu.
Proučite/preuzmite publikaciju