Υπόθεση Κουφοντίνα: Παραδοχή λαθών από τη Facebook για τον χειρισμό της

Ορισμένες αναρτήσεις αφαιρέθηκαν εσφαλμένα από τα φίλτρα καταλληλότητας περιεχομένου.

Parallaxi
υπόθεση-κουφοντίνα-παραδοχή-λαθών-απ-729539
Parallaxi

Εκπρόσωπος της Facebook, παραδέχτηκε ότι ορισμένες αναρτήσεις σχετικά με την υπόθεση Δημήτρη Κουφοντίνα αφαιρέθηκαν εσφαλμένα από τα φίλτρα καταλληλότητας περιεχομένου, μετά την ανακοίνωση της Τετάρτης ότι μέλη τρομοκρατικών οργανώσεων και υποστηρικτές του Κουφοντίνα δεν επιτρέπεται να χρησιμοποιούν την πλατφόρμα της.

«Οι τρομοκράτες, οι βίαιες εξτρεμιστικές ομάδες και οι οργανώσεις μίσους δεν έχουν θέση στο Facebook και το Instagram» αναφέρει σε δήλωσή του εκπρόσωπος του Facebook σχετικά με τις «πρόσφατες δημοσιεύσεις δημοσιογράφων, φωτορεπόρτερ και κοινού που είχαν αφαιρεθεί λόγω της πολιτικής του».

Στηn ανακοίνωση διευκρινίζεται πως «σύμφωνα με την πολιτική μας για τα Επικίνδυνα Άτομα και Οργανώσεις, απαγορεύουμε σε μέλη τρομοκρατικών οργανώσεων, όπως ο κ. Κουφοντίνας, να χρησιμοποιούν τις πλατφόρμες μας, καθώς επίσης, αποκλείουμε δημοσιεύσεις που επιδοκιμάζουν ή υποστηρίζουν αυτά τα άτομα και τις ενέργειές τους κάθε φορά που λαμβάνουμε σχετική γνώση».

Ωστόσο, αναφέρει στη δήλωσή του ο εκπρόσωπος της Facebook, «επιτρέπουμε στους χρήστες μας να συζητούν ουδέτερα για αυτά τα άτομα και να δημοσιεύουν ειδήσεις σχετικές με τις ενέργειές τους».

»Παρόλο που σημειώνεται μεγάλη πρόοδος στα συστήματά μας, αυτά δεν παύουν να μην είναι τέλεια, με αποτέλεσμα κατά περιπτώσεις να γίνονται λάθη. Το περιεχόμενο που αφαιρέθηκε κατά λάθος επαναφέρθηκε, όταν αυτό διαπιστώθηκε».

Είχε προηγηθεί καταγγελία της Ένωσης Φωτορεπόρτερ Ελλάδας ότι η Facebook «λογόκρινε» και αφαίρεσε από την πλατφόρμα της αναρτήσεις με εικόνες από πορεία συμπαράστασης στον καταδικασμένο δολοφόνο της 17Ν.

Στην ανακοίνωσή της, η Facebook περιλαμβάνει περαιτέρω πληροφορίες όσον αφορά τις διαδικασίες και την πολιτική της για το θέμα:

«Η «17 Νοέμβρη» και η ηγεσία της, συμπεριλαμβανομένου του κ. Κουφοντίνα, απαγορεύεται να χρησιμοποιούν τις πλατφόρμες του Facebook, καθώς παραβιάζουν τις πολιτικές του σχετικά με τα Επικίνδυνα Άτομα και Οργανώσεις.

Ως συνέπεια αυτού, και όταν λαμβάνεται σχετική γνώση, αποκλείεται επίσης περιεχόμενο που επιδοκιμάζει ή υποστηρίζει τον κ. Κουφοντίνα και τις ενέργειές του.

Το περιεχόμενο, το οποίο αναφέρεται ουδέτερα στον κ. Κουφοντίνα ή στην απεργία πείνας του ή στις διαμαρτυρίες που σχετίζονται με την απεργία πείνας του, δεν παραβιάζει μεμονωμένα τις εν λόγω πολιτικές.

Το Facebook προσδιορίζει ως παραβιάσεις των πολιτικών του, άτομα και οργανισμούς με βάση τη συμπεριφορά τους και το εάν εμπλέκονται, υποστηρίζουν ή παρέχουν σημαντική υποστήριξη σε σκόπιμες και προγραμματισμένες πράξεις βίας με σκοπό να εξαναγκάσουν, να εκφοβίσουν και / ή να επηρεάσουν έναν άμαχο πληθυσμό, μία κυβέρνηση ή έναν διεθνή οργανισμό προκειμένου να επιτευχθεί ένας πολιτικός, θρησκευτικός ή ιδεολογικός στόχος.

Ο ορισμός της τρομοκρατίας είναι ιδεολογικά αγνωστικός και μέχρι σήμερα, έχει εντοπιστεί ένα ευρύ φάσμα ομάδων ως τρομοκρατικές οργανώσεις, με βάση τη συμπεριφορά τους.

Το Facebook χρησιμοποιεί έναν συνδυασμό αναφορών χρηστών και τεχνολογίας για τον εντοπισμό περιεχομένου που παραβιάζει τις πολιτικές του. Οι εξελίξεις στην τεχνητή νοημοσύνη (AI) έχουν ως αποτέλεσμα να εντοπίζεται ακατάλληλο περιεχόμενο σε ένα μεγάλο εύρος θεμάτων, πριν ακόμη οι χρήστες χρειαστεί να κάνουν κάποια σχετική αναφορά. Συχνά η ακρίβεια των συστημάτων του Facebook είναι μεγαλύτερη από αυτή των αναφορών που λαμβάνει από τους χρήστες.

Δε λαμβάνονται μέτρα εναντίον περιεχομένου βασιζόμενο σε μαζικές αναφορές. Ακόμη και μία μοναδική αναφορά είναι αρκετή για να αποκλειστεί μέρος περιεχομένου, εφόσον επιβεβαιωθεί ότι παραβιάζει τις πολιτικές του.

Το Facebook, επίσης, κάνει χρήση ενός συνδυασμού τεχνολογίας και ανθρώπινου δυναμικού για να εξεταστεί το περιεχόμενο που αναγνωρίζεται ως παραβίαση των πολιτικών του. Παρόλο που η τεχνολογία έχει προχωρήσει αρκετά, εξακολουθούν να υπάρχουν τομείς στους οποίους είναι ζωτικής σημασίας να ελέγχεται το περιεχόμενο από ανθρώπινο παράγοντα. Σε αυτές τις περιπτώσεις, απαιτείται ανθρώπινη τεχνογνωσία για να προσδιοριστεί εάν το περιεχόμενο προβαίνει σε παραβιάσεις – όπως, για παράδειγμα, σε περιστατικά που η λήψη αποφάσεων είναι περίπλοκη και το ευρύτερο πλαίσιο κοινοποίησής του είναι μέγιστης σημασίας ή όταν η λήψη της απόφασης κρίνεται οριακά.

Το Facebook απασχολεί 15.000 επιμελητές περιεχομένου που εδρεύουν σε περιοχές σε όλο τον κόσμο. Συνολικά, εργάζονται 24 ώρες την ημέρα / 7 ημέρες την εβδομάδα, έτσι ώστε να μπορούν να ελεγχθούν γρήγορα οι αναφορές, σε περισσότερες από 50 γλώσσες συμπεριλαμβανομένων και των ελληνικών. Για περισσότερες πληροφορίες σχετικά με τον τρόπο λειτουργίας αυτής της διαδικασίας ακολουθήστε τον παρακάτω σύνδεσμο:https://about.fb.com/news/2020/08/how-we-review-content/

Δεδομένου ότι πρόκειται για συστήματα, περιστασιακά ενδέχεται να συμβούν λάθη και περιεχόμενο που δεν παραβιάζει τις πολιτικές του Facebook να αφαιρεθεί, όπως συνέβη σε κάποιες περιπτώσεις στην προκειμένη. Για αυτόν τον λόγο, έχει δημιουργηθεί μία διαδικασία προσφυγής, έτσι ώστε οι χρήστες να μπορούν να απευθυνθούν στο Facebook, όταν πιστεύουν ότι έχει γίνει κάποιο λάθος, έτσι ώστε το περιεχόμενο να επανεξεταστεί.

Το Facebook ανά τρίμηνο κοινοποιεί δημοσίως το σύνολο του περιεχομένου που αφαιρέθηκε, τον αριθμό του περιεχομένου για το οποίο έχουν υποβληθεί ενστάσεις και το ποσοστό των ενστάσεων που είναι επιτυχείς στον παρακάτω σύνδεσμο: Αναφορά Εφαρμογής των Προτύπων Κοινότητας».

Πληροφορίες: in.gr

Δείτε επίσης:

Σχετικά Αρθρα
Σχετικά Αρθρα