Shumë njerëz mendojnë se ekziston një listë sekrete fjalësh që nuk lejohen në rrjetet sociale. Prandaj përdorin fjalë të koduara si “unalived” në vend të “killed”, apo “seggs” në vend të “sex”, për të shmangur ndëshkimin nga algoritmet.
Kompani si YouTube, TikTok dhe Meta mohojnë plotësisht se ekziston një listë e tillë fjalësh, duke thënë se gjithçka varet nga konteksti. Por realiteti është më i ndërlikuar: në të kaluarën rrjetet sociale janë kapur duke manipuluar përmbajtjen, qoftë duke ulur dukshmërinë e disa përdoruesve, qoftë duke promovuar të tjerë.
Krijuesit e përmbajtjes thonë se shohin qartë se disa fjalë ose tema “e dëmtojnë” videon e tyre. Për shembull, Alex Pearlman tregon se videot e tij mbi Jeffrey Epstein u hoqën në TikTok dhe nuk mori kurrë sqarim të qartë. Kjo i shtyn krijuesit të përdorin gjuhë të koduar si “Island Man”.
Shembujt historikë tregojnë se platformat kanë ndërhyrë shpesh, p.sh.:
-TikTok është kapur duke ulur dukshmërinë e përdoruesve “jo tërheqës” ose LGBTQ+ (leak 2019).
-TikTok ka pranuar se kishte butonin sekret “heating” për t’i bërë disa video virale.
-Facebook/Instagram janë akuzuar se kufizuan përmbajtjen pro-palestineze.
Kjo krijon një klimë pasigurie ku njerëzit vetëcensurohen, pa e ditur se çfarë lejohet dhe çfarë jo. Kështu lind algospeak.
Një shembull ekstrem ndodhi në 2025: gjatë protestave kundër ICE, përdoruesit nisën t’i quanin protestat “festival muzike”, duke menduar se algortimi do t’i censuronte. Nuk kishte prova për këtë, por besimi kolektiv e përshpejtoi përhapjen e kodit.
Studiuesit e quajnë këtë “imagjinata algoritmike”: njerëzit ndryshojnë sjelljen bazuar në atë që mendojnë se bën algoritmi dhe kjo më pas e ndryshon vërtet platformën.
Në fund, ekspertët thonë se nuk bëhet fjalë për politikë, por për para. Rrjetet sociale duan të krijojnë një mjedis të sigurt për reklamuesit dhe të shmangin rregullimet qeveritare. Çdo ndryshim në algoritëm vjen nga kjo logjikë fitimi./Përshtatur nga BBC