Σχεδόν δύο μήνες μετά τις τρομοκρατικές επιθέσεις στη Νέα Ζηλανδία, το Facebook προχώρησε στην ανακοίνωση μέτρων που...
ευελπιστεί ότι θα σταματήσουν την ζωντανή μετάδοση ανάλογου περιεχομένου.
Οι ανακοινώσεις ήρθαν μέσω ενός blog post του Guy Rosen, αντιπροέδρου της εταιρείας και αρμόδιου για θέματα περιεχομένου, ο οποίος τόνισε ότι η πλατφόρμα θα τιμωρεί χρήστες για συγκεκριμένη χρονική περίοδο όταν παρατηρείται παραβίαση των σχετικών πολιτικών της εταιρείας.
«Από εδώ και στο εξής, οποιοσδήποτε παραβιάζει τις πλέον σοβαρές μας πολιτικές θα εξαιρείται από την δυνατότητα χρήσης της υπηρεσίας Live για συγκεκριμένες χρονικές περιόδους – π.χ. για 30 ημέρες – αρχής γενομένης από το πρώτο του παράπτωμα. Για παράδειγμα, αν κάποιος μοιραστεί έστω έναν σύνδεσμο (χωρίς άλλο περιεχόμενο) μίας δήλωσης προερχόμενης από τρομοκρατική οργάνωση τότε αυτόματα θα μπλοκάρεται από την χρήση του Live», αναφέρει το στέλεχος του Facebook. Παράλληλα, πρόσθεσε ότι σύντομα θα υπάρξουν ανάλογοι περιορισμοί και για τους χρήστες που δημιουργούν ανάλογες διαφημίσεις.
Ωστόσο, δεν έχει διευκρινιστεί πόσο χρόνο θα χρειάζεται το Facebook για να εντοπίζει ένα βίντεο που θα μεταδίδεται ζωντανά και θα εμπίπτει στην συγκεκριμένη κατηγορία. Επίσης, δεν διευκρινίστηκε ποια θα είναι η αντιμετώπιση των παραβατών μετά την περίοδο του αποκλεισμού ή αν θα συμβαίνει κάτι άλλο, αν οι παραβάσεις συνεχίσουν μετά την περίοδο του αποκλεισμού.
Αξίζει να υπενθυμίσουμε ότι η συζήτηση γύρω από τις ζωντανές μεταδόσεις περιεχομένου του Facebook άνοιξε μετά τις επιθέσεις στο Κράιστ Τσερτς της Νέας Ζηλανδίας. Τότε, σύμφωνα με τα όσα ανακοίνωσε το ίδιο το Facebook υπήρξε βίντεο της επίθεσης που προβλήθηκε 4000 φορές πριν τελικά καταγγελθεί μετά από 29 λεπτά.
Συνολικά, λίγες μόνο ώρες μετά τις επιθέσεις αφαιρέθηκαν περί τα 1,2 εκατομμύρια βίντεο, αν και κόπιες συνέχιζαν να κυκλοφορούν έως και 12 ώρες μετά το συμβάν. Ενδεικτικό είναι ότι η ζωντανή μετάδοση αναφέρθηκε στο Facebook 12 λεπτά μετά την λήξη του, ενώ το σύστημα απέτυχε να εμποδίσει την προβολή έως και 20% των βίντεο που ανέβηκαν από χρήστες μετά το συμβάν.
Στην ανακοίνωση υπάρχει παραδοχή ότι όντως το Facebook απέτυχε να εντοπίσει ορισμένα βίντεο καθώς αυτά είχαν υποστεί επεξεργασία. Ωστόσο, η δικαιολογία μάλλον πάσχει από την στιγμή που η εταιρεία διατυμπανίζει την χρήση Τεχνητής Νοημοσύνης και Μηχανικής Μάθησης για να κρατά το κακόβουλο περιεχόμενο εκτός Facebook.