TECH: Facebook pourrait sous-déclarer les images d’abus d’enfants. Un document divulgué l’indique.

Un doc­u­ment de for­ma­tion util­isé par les mod­éra­teurs de con­tenu de Face­book soulève des ques­tions quant à savoir si le réseau social sous-déclare les images d’abus sex­uels implicites d’en­fants, rap­porte le New York Times. images, une pra­tique con­testée par les prési­dents mais défendue par les chefs d’entreprise.

Le prob­lème est de savoir com­ment les mod­éra­teurs de Face­book doivent gér­er les images dans lesquelles l’âge du sujet n’est pas incon­ti­nent fla­grant. Cette déci­sion peut com­porter des allé­ga­tions impor­tantes, car les images pré­sumées de mal­trai­tance d’en­fants sont sig­nalées au Cen­tre nation­al pour les enfants dis­parus et exploités (NCMEC), qui trans­met les images aux forces de l’or­dre. Les images qui représen­tent des adultes, en revanche, peu­vent être sup­primées de Face­book si elles enfreignent ses règles, mais ne sont pas sig­nalées aux autorités extérieures.

Mais, comme le souligne le NYT, il n’y a pas de moyen fiable de déter­min­er l’âge en un clin d’œil. Les mod­éra­teurs seraient for­més pour utilis­er un sys­tème vieux de plus de 50 ans pour iden­ti­fi­er «les phas­es pro­gres­sives de la puberté», mais la méthodolo­gie «n’a pas été conçue pour déter­min­er l’âge de quelqu’un». Et, puisque les direc­tives de Face­book deman­dent aux mod­éra­teurs de sup­pos­er que les empreintes dont ils ne sont pas sûrs sont des adultes, les mod­éra­teurs soupçon­nent que de nom­breuses images d’en­fants peu­vent pass­er.
Cela est encore com­pliqué par le fait que les mod­éra­teurs de con­trat de Face­book, qui tra­vail­lent pour des entre­pris­es extérieures et ne béné­fi­cient pas des mêmes avan­tages que les tra­vailleurs à temps plein, peu­vent n’avoir que quelques sec­on­des pour pren­dre une déci­sion et peu­vent être punis pour avoir fait le mau­vais appel.

Face­book, qui sig­nale plus de matériel d’abus sex­uels sur des enfants au NCMEC qu’à toute autre entre­prise, affirme que se tromper du côté des adultes vise à cou­vrir les drogues et la vie privée et à éviter les faux rap­ports qui pour­raient entraver la capac­ité des autorités à enquêter sur des cas factuels d’abus. . Le respon­s­able de la sécu­rité de l’en­tre­prise, Antigone Davis, a déclaré au jour­nal que cela pour­rait égale­ment être une respon­s­abil­ité légale pour eux de faire de faux rap­ports. Surtout, toutes les entre­pris­es ne parta­gent pas l’idéolo­gie de Face­book sur cette ques­tion. Apple, Snap et Tik­Tok auraient tous adop­té “l’ap­proche con­traire” et sig­naleraient des images lorsqu’ils doutent d’un âge.

Soyez le premier à commenter

Poster un Commentaire

Votre adresse de messagerie ne sera pas publiée.


*