Umetna inteligenca za učitelje: interaktivni spletni priročnik za učitelje

V ozadju: učinki spletnega iskanja na družbo

Socialni učinki

Danes v svetu vedno bolj prevladuje občutek, da se vse, kar je pomembno, nahaja na spletu in da bi moralo biti vse to dostopno s pomočjo spletnega iskanja.L. M. Hinman pravi: "Esse est indicato in Google" (Biti pomeni biti indeksiran na Googlu), in dodaja: “državljani v demokratično urejeni državi ne morejo sprejemati informiranih odločitev brez dostopa do točnih informacij.”1,8 Če demokracija temelji na prostem dostopu do neizkrivljenih informacij, potem iskalniki neposredno vplivajo na to, kako demokratične so naše države. Njihova vloga varuhov znanja je v neposrednem nasprotju z njihovo naravo zasebnih podjetij, katerih prihodki so odvisni od oglasov. Zato moramo v imenu svobodne družbe vztrajati pri odgovornosti iskalnikov in preglednosti delovanja algoritmov, ki jih poganjajo.1

Vzpostavljanje filtrirnih mehurčkov

Sistemi, ki priporočajo vsebine na podlagi uporabniških profilov (vključno s spletnimi iskalniki), lahko uporabnike izolirajo pred izpostavljenostjo raznolikim pogledom. S podajanjem vsebin, ki so uporabniku všeč, spodbujajo pristranskost, ki krepi sama sebe, in t. i. “filtrirne mehurčke”.1,5 Takšni mehurčki, ki nastanejo, kadar novo pridobljeno znanje temelji na preteklih interesih in aktivnostih,2 zacementirajo predsodke kot trdne temelje znanja. To je še posebej nevarno za mlade, zelo dovzetne glave. Zato je potrebno v učilnicah spodbujati odprte razprave z vrstniki in učitelji ter aktivnosti sodelovalnega učenja.

Povratne zanke

Iskalniki in drugi sistemi za generiranje priporočil predvidevajo, kaj bo uporabnika zanimalo. Ko uporabnik klikne na priporočeno vsebino, je to pozitivna povratna informacija. Ta povratna informacija vpliva na to, katere povezave bodo prikazane v prihodnosti. Pa je uporabnik res kliknil na prvo prikazano povezavo zato, ker se mu je zdela ustrezna, ali preprosto zato, ker je bil to prvi rezultat in ga je bilo zato lažje izbrati?

Implicitne povratne informacije je težko interpretirati. Kadar napovedi temeljijo na nepravilni intrepretaciji, je učinke še težje napovedati. Kadar se določeni rezultati prikažejo večkrat, in če so edino, kar uporabnik vidi, potem se lahko zares spremenijo celo uporabnikove preference (kaj mu je všeč in kaj ne). Temu bi lahko rekli samouresničujoča se prerokba.

V nekem mestu v ZDA so uvedli sistem predvidevanja za uporabo v policiji: sistem opozarja, v katerih predelih mesta obstaja veliko tveganje za kriminaliteto. To pomeni, da so na takšna območja pošiljali več policistov. Ker so policisti vedeli, da so ta območja izpostavljena visoki stopnji tveganja, so bili zelo previdni in so ustavili, preiskali ali aretirali več ljudi kot sicer. Aretacije so tako potrdile napoved (predvidevanje), tudi če je bila v osnovi pristranska. Ne samo to, aretacije so služile kot vhodni podatki za nadaljnje napovedi na istih in podobnih območjih, s čimer se je pristranskost sčasoma še povečala.10

Sisteme za napovedovanje uporabljamo zato, da lahko na podlagi napovedi ukrepamo. Toda delovanje na podlagi pristranskih napovedi vpliva na prihodnje izide, na vpletene ljudi in s tem na družbo samo. "Kot stranski učinek izpolnjevanja svojega namena pridobivanja ustreznih informacij bo iskalnik nujno spremenil prav tisto, kar želi meriti, razvrščati in rangirati. Podobno bo večina sistemov strojnega učenja vplivala na pojave, ki jih napoveduje." 10

Lažne novice, ekstremne vsebine in cenzura

Na spletnih forumih, družabnih omrežjih in blogih, ki so učencem na voljo prek iskanja, je vse več lažnih novic. Majhne, ciljno usmerjene skupine ljudi lahko zvišujejo ocene določenih videoposnetkov in spletnih strani z ekstremnimi vsebinami. S tem se poveča priljubljenost takšnih vsebin in okrepi videz avtentičnosti, kar izigrava algoritme razvrščanja.5 Vendar pa med podjetji na trgu do danes še ni zasnovane nobene jasne, nedvoumne politike za nadzor nad lažnimi novicami.1

Po drugi strani pa iskalniki sistematično izključujejo določena spletna mesta v korist drugih.9,1Cenzurirajo vsebine nekaterih avtorjev, čeprav jih javnost ni pooblastila za to nalogo. Zato je treba spletne iskalnike vselej uporabljati ozaveščeno in previdno.

------------------------------------------------------------------------------------------------------
1 Tavani, H., Zimmer, M., Search Engines and Ethics, The Stanford Encyclopedia of Philosophy, Fall 2020 Edition), Edward N. Zalta (ed.)
2 Englehardt, S., Narayanan, A., Online Tracking: A 1-million-site Measurement and Analysis, Extended version of paper at ACM CCS 2016.
3 Google Privacy and Terms
4 Microsoft Privacy Statement
5 Milano, S., Taddeo, M., Floridi, L. Recommender systems and their ethical challenges, AI & Soc 35, 957–967, 2020 
6 Tavani, H.T., Ethics and Technology: Controversies, Questions, and Strategies for Ethical Computing, 5th edition, Hoboken, NJ: John Wiley and Sons, 2016
7 Hillis, K., Petit, M., Jarrett, K., Google and the Culture of Search, Routledge Taylor and Francis, 2013
8 Hinman, L. M., Esse Est Indicato in Google: Ethical and Political Issues in Search Engines, International Review of Information Ethics, 3: 19–25, 2005
9 Introna, L. and Nissenbaum, H., Shaping the Web: Why The Politics of Search Engines Matters, The Information Society, 16(3): 169–185, 2000
10 Barocas, S.,  Hardt, M., Narayanan, A., Fairness and machine learning Limitations and Opportunities, yet to be published

This page has paths: