Varme anbefalinger
Selv uten helt å vite hva det å vise er kan vi være enige om at det er en god ting. Verden er mildt sagt mangfoldig, og uten hverandres anbefalinger som veiledning ville vi vært ganske hjelpeløse i vår jakt på godbitene. For eksempel hadde jeg neppe fått med meg fornøyelige The Art of Looking Sideways, dersom det ikke var for at Amazon anbefalte den som en similar item som A Smile in the Mind, som jeg igjen fikk anbefalt hos Digme, en blogg som jeg såvidt jeg husker igjen fikk anbefalt via linkelisten til Jill Walker.
Men disse anbefalingene sprer ikke bare lutter glede. For noen år siden ble det baluba da Amazon stilte bøkene til den erkekonservative TV-engalisten Pat Robertson ved siden av bøker om homofil seksuell praksis under vignetten “kunder som kjøpte denne, kjøpte også disse…”. Og i januar tok Wal-Mart ned hele anbefalingssystemet sitt, etter at det ble kjent at produktsiden for en Planet of The Apes-DVD-boks oppga filmer om Martin Luther King og andre fremtredende svarte amerikanere som “similar items”.
I begge sakene unnskyldte selskapene seg med rusk i maskineriet, uten at vi fikk noen skikkelig forklaring. Det er imidlertid ikke vanskjelig å forestille seg at det første tilfellet kunne ha vært en case av “Amazon bombing”, altså et koordinert forsøk på å manipulere anbefalingssystemet fra utsiden, og at det andre tilfellet kan ha vært en sabotasje fra et hatefullt sinn på innsiden av Wal-Mart-systemet. De siste dagene har det vært litt oppstuss over en lignende sak, et Amazon-søk på abortion skal visstnok ha gitt stavepåminnelsen “Did you mean adoption?” og et utvalg bøker som klart dreide i abortmotstanderes retning (via Tversover).
Anbefalingssystemer kan være fantastiske redskaper for å høste inn av kollektive intelligensavlinger. Men the wisdom of the crowds kan inkludere både stereotypier og vrangforestillinger, og hva når brukernes klikkemønster avspeiler holdninger som er litt for grumsete til at de tåler dagens lys, eller at algoritmene på annet vis serverer lite taktfulle resultater? Nettstedene fraskriver seg gjerne ansvaret for snodige sammenstillinger og søkeresultater med henvisning til at disse genereres automatisk, men når maskinenes autisme gir seg så pinlige utslag som i eksemplene over blir det vanskelig å ikke blande seg inn. Å fornærme kunden er tross alt sjelden bra for business.
Google er blant de som har som politikk ikke å blande seg i de automatiserte søkeresultatene, i hvert fall så lenge søkeren ikke bor i Kina og man benytter den vanlige søketjenesten. Dette gjelder nemlig ikke for Google Suggest, tjenesten der søket “fylles ut” med forslag mens man skriver. Her luker Uncle Google ut endel “uheldige” ord, for eksempel “sex”. Utover ordfiltrerning er Googles innblanding relativt begrenset, og et “den-og-den typen-mennesker er”-søk kan fort gi avslørende resultater, jamfør skjermbildet under. Forsøk gjerne selv med din favoritt-folkegruppe.
mars 27th, 2006 at 14:08
Interessant. Men google suggest sparker visst i alle retninger: ‘christians are’ (stupid, evil, idots, wrong, crazy, hypocrites, dumb, morons, ignorant).
mars 27th, 2006 at 16:18
Jeg ble lenkeinspirert av dette, det var fint.
mars 27th, 2006 at 16:20
Og like mye av syn oss åkeren.