Potrivit unor dezvăluiri recente, sistemele automate de moderare a postărilor nu funcționează pentru toți utilizatorii Facebook, lăsând teren fertil în anumite țări pentru propagarea conținutului dăunător sau abuziv.
Responsabile pentru majoritatea activității de moderare a conținutului distribuit pe Facebook, sistemele automate bazate pe inteligență artificială nu pot citi decât postările scrise în anumite limbi de circulație internațională, lăsând utilizatorii din multe țări vulnerabil în fața campaniilor de dezinformare și abuzuri de orice fel. Mai mult decât atât, Facebook este acuzat că nu investește suficient în angajarea de moderatori care să fie vorbitori ai unor limbi mai puțin comune, folosite în unele dintre regiunile acoperite de platforma de socializare.
Practic, cu excepția conținutului în engleză și alte câteva limbi folosite în țările vestice, eficiența serviciilor de moderare a postărilor lasă mult de dorit, Facebook nedispunând de suficienți angajați pentru verificarea în timp util a raportărilor pentru conținut local. În prezent mai mult de 90% dintre utilizatorii Facebook provin din afara SUA.
Raportul susține că lipsa moderatorilor umani cu abilități multilingve, combinată cu neajunsurile folosirii sistemelor automate pentru a elimina postările toxice, slăbește capacitatea Facebook de a monitoriza conținutul dăunător online.
Aparent, atitudinea luată de conducerea Facebook pe această temă este aceea de a considera potențialele daune (amenzi) din țările străine ca „pur și simplu costul de a face afaceri” pe acele piețe.
Angajații companiei și-au exprimat îngrijorarea cu privire la modul în care sistemul le-a permis actorilor răi să folosească site-ul în scopuri nefaste, potrivit documentelor citate de Wall Street Journal .