Πώς οι Big Tech εταιρείες θα καταπολεμήσουν την λευκή ρατσιστική τρομοκρατία | Foreign Affairs - Hellenic Edition
Secure Connection

Πώς οι Big Tech εταιρείες θα καταπολεμήσουν την λευκή ρατσιστική τρομοκρατία

Έχουν τα εργαλεία -απλά πρέπει να τα χρησιμοποιήσουν

Το πρωί της 3ης Αυγούστου, ο Patrick Crusius ανάρτησε ένα μανιφέστο 2.300 λέξεων στο 8chan, ένα online φόρουμ δημοφιλές σε λευκούς εθνικιστές. Μέσα σε δευτερόλεπτα, [ηλεκτρονικά] πακέτα μεγέθους byte που μεταφέρουν αντι-μεταναστευτική ρητορική θα διέσχιζαν τα σύνορα σε όλο τον κόσμο, βρίσκοντας τον δρόμο τους από το Ελ Πάσο, στο Τέξας, μέχρι τις Φιλιππίνες, όπου εδρεύει η 8chan. Οι ειδήσεις για το τι έκανε στην συνέχεια ο Crusius θα ταξίδευαν ακόμη ευρύτερα. Οπλισμένος με ένα [οπλοπολυβόλο Καλασνίκοφ] AK-47, ο πρόσφατα αποπεμφθείς από ένα κολέγιο νεαρός, όρμησε σε ένα [σούπερ μάρκετ] Walmart κοντά στα μεξικανικά σύνορα, σκοτώνοντας 22 και τραυματίζοντας πολλούς άλλους. Ο ομολογημένος στόχος του [1]: Να σκοτώσει όσο το δυνατόν περισσότερους Μεξικανούς.

16082019-1.jpg

Θρηνούντες σε αγρυπνία για τα θύματα των πυροβολισμών στο Ελ Πάσο, τον Αύγουστο του 2019. Callaghan O'Hare / Reuters
-------------------------------------------------------------------------

Το μακελειό στο Ελ Πάσο, σε συνδυασμό με μια ξεχωριστή περίπτωση μαζικών πυροβολισμών στο Dayton του Ohio, εκείνη τη νύχτα, προκάλεσε ανανεωμένη συζήτηση σχετικά με τον τρόπο ανταπόκρισης στο διαδικτυακό μίσος [2]. Καθώς η πολιτική πίεση αυξανόταν, ο πρόεδρος των ΗΠΑ, Donald Trump, δανείστηκε έναν τρόπο αντίδρασης του Obama και συγκάλεσε μια «τεχνολογική σύνοδο κορυφής» για τον εξτρεμισμό. Στις 9 Αυγούστου, οι αξιωματούχοι του Λευκού Οίκου φιλοξένησαν εκπροσώπους από μεγάλες εταιρείες τεχνολογίας -Amazon, Google, Facebook, Twitter, Microsoft και άλλους- και συζήτησαν τους πιθανούς τρόπους να διακόπτουν την διαδικτυακή στρατολόγηση και τον συντονισμό των εξτρεμιστών.

Η σύνοδος κορυφής θα μείνει στην μνήμη ως μια ακόμη χαμένη ευκαιρία. Η διοίκηση του Trump μπορεί να είναι πιο πρόθυμη από του Ομπάμα να αμφισβητήσει τον τομέα της τεχνολογίας, αλλά έχει επιλέξει να πολεμήσει την λάθος μάχη και οι προσπάθειές της κινδυνεύουν να χειροτερέψουν το πρόβλημα. Δείτε το αναφερθέν σχέδιο της διοίκησης [3] να χορηγήσει στην Ομοσπονδιακή Επιτροπή Επικοινωνιών (FCC) ευρεία νέα εξουσία για την ρύθμιση των εταιρειών των μέσων κοινωνικής δικτύωσης [4]. Η εξουσία δεν θα βοηθούσε την FCC να αναγκάσει τις εταιρείες τεχνολογίας να αστυνομεύουν πιο επιθετικά τις πλατφόρμες τους για εξτρεμιστικούς λογαριασμούς και περιεχόμενο. Αντίθετα, η FCC, δυνάμει μιας εκτελεστικής εντολής με τίτλο «Προστασία των Αμερικανών από την Ηλεκτρονική Λογοκρισία», θα επεδίωκε να διασφαλίσει ότι οι εταιρείες κοινωνικών μέσων δεν είναι «προκατειλημμένες» κατά των συντηρητικών. Με την ρητορική και την γλώσσα του Trump συχνά να μην διακρίνεται από εκείνη των λευκών εθνικιστών, ένα τέτοιο μέτρο θα καθιστούσε πιο δύσκολο για τις εταιρείες τεχνολογίας να αντιμετωπίσουν τον εξτρεμισμό στο διαδίκτυο.

Καθώς η διοίκηση του Trump αμφιταλαντεύεται, η απειλή συνεχίζει να αυξάνεται. Η τρομακτική επίθεση στο Ελ Πάσο ήταν η τελευταία εμφάνιση ενός ενοχλητικού νέου σεναρίου, στο οποίο λευκοί εθνικιστές, ριζοσπαστικοποιημένοι στο διαδίκτυο, αναρτούν την πίστη τους στο κίνημα προτού πραγματοποιήσουν ένα είδος παιγνιοποιημένης βίας που σχεδιάστηκε για να επευφημείται γρήγορα και να μοιράζεται στο Διαδίκτυο πριν επαναληφθεί εκ νέου. Το σενάριο γράφτηκε στη Νορβηγία, όπου το 2011 ο Anders Breivik δημοσίευσε ένα τεράστιο μανιφέστο πριν σκοτώσει 77 ανθρώπους, κυρίως νέους σε καλοκαιρινό καταυλισμό ενός αριστερού πολιτικού κόμματος. Νωρίτερα φέτος, ο Brenton Tarrant δημοσίευσε το μανιφέστο του στο 8chan πριν σκοτώσει 51 πιστούς σε ένα τζαμί και στο Ισλαμικό Κέντρο στο Christchurch της Νέας Ζηλανδίας. Με μια τρομακτική εξέλιξη, ο Tarrant μεταδίδει βίντεο της επίθεσης σε πραγματικό χρόνο στο Facebook Live. Παρά τις προσπάθειες του Facebook να μπλοκάρει το βίντεο, εξαπλώθηκε σαν πυρκαγιά [5] -μεταφορτώθηκε, συχνά σε τροποποιημένη μορφή, πάνω από ένα εκατομμύριο φορές στο Facebook και αμέτρητες περισσότερες σε τοποθεσίες όπως το 8chan και το Reddit.

Όσον αφορά την παγκόσμια εμβέλεια και την θνησιμότητα, η λευκή εθνικιστική τρομοκρατία θυμίζει όλο και περισσότερο το τζιχαντιστικό κίνημα του τζιχάντ. Έχει επίσης, όπως και το τζιχαντιστικό κίνημα, χρησιμοποιήσει το Διαδίκτυο και τα μέσα κοινωνικής δικτύωσης για να στρατολογήσει και να ριζοσπαστικοποιήσει τα μέλη του, να διαδώσει την προπαγάνδα και να μεταδώσει εικόνες και βίντεο από τις βιαιότητές του. Τι μπορούν να κάνουν οι εταιρείες τεχνολογίας -και οι κυβερνήσεις- για να την σταματήσουν;

ΑΝΤΙΜΕΤΩΠΙΣΤΕ ΤΟΝ ΛΕΥΚΟ ΕΘΝΙΚΙΣΜΟ ΟΠΩΣ ΤΟΝ ΤΖΙΧΑΝΤΙΣΜΟ

Η εξισορρόπηση του δικαιώματος της ελεύθερης έκφρασης στο διαδίκτυο με την ανάγκη παρακολούθησης και διακοπής της εξτρεμιστικής χρήσης του διαδικτύου δεν είναι σε καμία περίπτωση ένα αμερικανικό πρόβλημα μόνο. Για παράδειγμα, μετά την επίθεση στο Christchurch, η πρωθυπουργός της Νέας Ζηλανδίας Jacinda Ardern συνεργάστηκε με την Γαλλία και άλλες μεγάλες εταιρείες τεχνολογίας για να ξεκινήσει το Christchurch Call τον Μάιο. Βασιζόμενη στις αντι-εξτρεμιστικές προσπάθειες της ΕΕ και άλλων φορέων (συμπεριλαμβανομένης της Διαδικασίας της Άκαμπα (Aqaba Process) που δρομολογήθηκε από την Ιορδανία το 2015), το Christchurch Call έφερε τις εταιρείες τεχνολογίας και τις κυβερνήσεις κοντά για να δεσμευτούν να «εξαλείψουν το τρομοκρατικό και βίαιο εξτρεμιστικό περιεχόμενο στο διαδίκτυο».

Το Christchurch Call ήταν ένα αξιοθαύμαστο ξεκίνημα, αλλά, όπως και η Διαδικασία της Άκαμπα, είναι γενναιόφρον στις καλές προθέσεις και ελλειμματικό στις λεπτομέρειες. Ευτυχώς, υπάρχουν συγκεκριμένα βήματα που οι τεχνολογικές εταιρείες μπορούν να κάνουν για να περιορίσουν την εξάπλωση του μίσους στο διαδίκτυο.

Το πρώτο βήμα θα πρέπει να είναι να αντιμετωπιστούν όλες οι ιδεολογίες του μίσους με τον ίδιο τρόπο. Μέχρι πολύ πρόσφατα [6], το Facebook και άλλες εταιρείες μέσων κοινωνικής δικτύωσης έχουν επικεντρωθεί πολύ περισσότερο στο τζιχαντιστικό περιεχόμενο από όσο στο λευκό εθνικιστικό και σε άλλες μορφές ακροδεξιού περιεχομένου. Αυτό είναι σε μεγάλο βαθμό μια κληρονομιά του αγώνα κατά του Ισλαμικού Κράτους (ISIS). Όταν η ομάδα εμφανίστηκε το 2014, το Facebook και άλλες εταιρείες προσπάθησαν να εμποδίσουν προληπτικά το περιεχόμενο του ISIS [7] και να απομακρύνουν τους χρήστες που συνδέονταν με αυτό και άλλες διεθνείς τρομοκρατικές ομάδες. Ταυτόχρονα, ήθελαν να καθησυχάσουν εκλογικά σώματα που είναι αφιερωμένα στην ελευθερία του λόγου. Ήταν σε θέση να επιτύχουν αυτή την ισορροπία, επειδή η κυβέρνηση των ΗΠΑ είχε χαρακτηρίσει επισήμως το ISIS ως τρομοκρατική ομάδα, δίνοντας στις εταιρείες μια νομική λογική για τον περιορισμό του περιεχομένου που σχετίζεται με το ISIS. Η κυβέρνηση των ΗΠΑ δεν ορίζει με παρόμοιο τρόπο τις εσωτερικές τρομοκρατικές ομάδες.

Από τεχνική και ηθική άποψη, ωστόσο, το λευκό ρατσιστικό περιεχόμενο δεν διαφέρει από το τζιχαντιστικό περιεχόμενο -αν οι εταιρείες μέσων κοινωνικής δικτύωσης μπορούν να μπλοκάρουν το ένα [είδος περιεχομένου], μπορούν να μπλοκάρουν και το άλλο [8]. Μέχρι στιγμής, απέφυγαν να το κάνουν επειδή φοβούνται ότι ως αντίδραση θα χτυπηθούν από τους συντηρητικούς. Όπως εξηγεί ο ειδικός επί του εξτρεμισμού JM Berger [9], «η πάταξη των λευκών εθνικιστών θα ... περιλαμβάνει την αφαίρεση [από τις διαδικτυακές πλατφόρμες] πολλών ανθρώπων που αναγνωρίζονται σε μεγαλύτερο ή μικρότερο βαθμό ως υποστηρικτές του Trump, και μερικοί άνθρωποι στους κύκλους του Trump και στα μήντια υπέρ του Trump θα το εκμεταλλευθούν σίγουρα για να διαμαρτυρηθούν ότι διώκονται».

Πάντως, τέτοιου είδους καταστολές λειτουργούν. Με το να κλείνουν μεμονωμένους τζιχαντιστικούς λογαριασμούς, να αναγνωρίζουν και να μπλοκάρουν κοινούς τύπους τζιχαντιστικής προπαγάνδας και με το να συνεργάζονται με την επιβολή του νόμου, εταιρείες όπως το Facebook, το Twitter και το YouTube μείωσαν την online παρουσία των τζιχαντιστικών ομάδων. Μπορούν να κάνουν το ίδιο και με τους λευκούς εθνικιστές. Αυτές οι προσπάθειες δεν απαιτούνται από το νόμο, και ειδικά στις Ηνωμένες Πολιτείες, οι πολιτικά φιλελεύθεροι μπορούν να συμπαραταχθούν με τους ρατσιστές σε αντίθεσή τους ως προς αυτές. Αλλά οι τεχνολογικές εταιρείες είναι ιδιωτικές εταιρείες και μπορούν νομίμως να αφαιρέσουν το μίσος περιεχόμενο από τις πλατφόρμες τους, χωρίς να παραβιάζουν την Πρώτη Τροποποίηση [του συντάγματος των ΗΠΑ].

Δεύτερον, οι εταιρείες τεχνολογίας θα πρέπει να αρχίσουν να προσλαμβάνουν περισσότερους -και περισσότερο εκπαιδευμένους- διαχειριστές περιεχομένου (moderators). Παρόλο που εταιρείες όπως το Facebook και η Google βασίζονται όλο και περισσότερο στην τεχνητή νοημοσύνη για να επισημάνουν το προβληματικό περιεχόμενο, απασχολούν επίσης χιλιάδες συμβασιούχους για να επανεξετάζουν αυτές τις αποφάσεις. Μόνο το Facebook απασχολεί [10] εντός της εταιρείας περισσότερους από 200 αναλυτές της τρομοκρατίας και συμβασιούχους [11] με περισσότερους από 15.000 συντονιστές περιεχομένου παγκοσμίως. Αυτός ο αριθμός, ωστόσο, δεν είναι ανάλογος με την κλίμακα του προβλήματος -υπάρχουν πάνω από δύο δισεκατομμύρια χρήστες του Facebook. Στη Μυανμάρ, για παράδειγμα, το Facebook πάλεψε για να μετριάσει το βίαιο περιεχόμενο, εν μέρει επειδή έχει πολύ λίγους συντονιστές που μιλάνε Βιρμανικά [12].

Η ποιότητα των συντονιστών περιεχομένου είναι ακόμη πιο σημαντική από το πλήθος τους. Ο αποτελεσματικός συντονισμός (moderation) απαιτεί την δυνατότητα να γίνεται διάκριση μεταξύ του τρομοκρατικού περιεχομένου και των νόμιμων μορφών πολιτικού λόγου. Αυτό, με την σειρά του, απαιτεί μια μεγάλη ομάδα αναλυτών με βαθιά γνώση της τρομοκρατίας όσο και μια μεγάλη ποικιλία ειδικών σε τοπικό και περιφερειακό επίπεδο, οι οποίοι να μπορούν να εφαρμόσουν τις παγκοσμίως κανονιστικές πολιτικές [13]. Και αυτοί οι συντονιστές πρέπει να έχουν τις γλωσσικές, πολιτιστικές και αναλυτικές δεξιότητες που είναι απαραίτητες για να εφαρμόσουν αυτές τις πολιτικές γρήγορα και με ακρίβεια σε όλο τον κόσμο. Η προσέλκυση των συντονιστών με τα κατάλληλα προσόντα σημαίνει ότι οι εταιρείες θα πρέπει όχι μόνο να τους πληρώνουν καλύτερα αλλά και να τους παρέχουν μεγαλύτερο κύρος και σεβασμό [14] από ό, τι λαμβάνουν σήμερα.

Οι τεχνολογικές εταιρείες πρέπει επίσης να βελτιώσουν την ανταλλαγή πληροφοριών μεταξύ των πλατφορμών. Οι περισσότερες μικρές και πρώιμου σταδίου εταιρείες δεν διαθέτουν τους πόρους για να επενδύσουν στην τεχνογνωσία για την καταπολέμηση της τρομοκρατίας και επομένως αγωνίζονται για να εντοπίσουν εξτρεμιστικές ομάδες και περιεχόμενο στις πλατφόρμες τους. Το 2017, η Google, το Facebook και άλλες μεγάλες εταιρείες δημιούργησαν το Παγκόσμιο Φόρουμ Διαδικτύου για την Καταπολέμηση της Τρομοκρατίας (Global Internet Forum to Counter Terrorism). Εν μέρει, το σκεπτικό πίσω από το φόρουμ ήταν η ανταλλαγή πληροφοριών επί υποψιών περί τρομοκρατικών ενεργειών και η αποτροπή της μετακίνησης επικίνδυνων περιεχομένων από τις πλατφόρμες. Μετά τις επιθέσεις της Νέας Ζηλανδίας, για παράδειγμα, το Facebook «στιγμάτισε» το αρχικό βίντεο, παρέχοντάς του ουσιαστικά ένα ψηφιακό αποτύπωμα που επέτρεψε στο Facebook και σε άλλες εταιρείες να το εντοπίσουν πιο εύκολα. Νωρίτερα αυτόν τον μήνα, η εταιρεία δημοσιοποίησε επίσης τον κώδικα από έναν αλγόριθμο που μπορούν να χρησιμοποιήσουν οι μικρότερες εταιρείες και οργανώσεις για τον εντοπισμό τρομοκρατικών εικόνων [15].

Αυτά τα βήματα είναι ευπρόσδεκτα, αλλά μπορούν να γίνουν περισσότερα. Προφανέστερα, το Facebook και άλλοι θα μπορούσαν να δημοσιεύσουν τον πλήρη κατάλογο των εξτρεμιστικών οργανώσεων και ατόμων [16] που έχουν αποκλειστεί από τις πλατφόρμες τους, μαζί με σύντομες εξηγήσεις για την κάθε απόφαση. Μια τέτοια κίνηση θα διευκόλυνε ευκολότερα τις μικρότερες επιχειρήσεις χωρίς εμπειρία [σε θέματα σχετικά με την] τρομοκρατία, προκειμένου να εκτιμήσουν εάν θα μπλοκάρουν συγκεκριμένες ομάδες και άτομα.

ΜΗΝ ΑΦΗΣΕΤΕ ΤΟ ΠΡΟΒΛΗΜΑ ΝΑ ΚΑΚΟΦΟΡΜΙΣΕΙ

Δεν μπορούμε να γνωρίζουμε αν οι τεχνολογικές εταιρείες καταλαβαίνουν την ισορροπία σωστά εάν δεν γνωρίζουμε τι κάνουν, οπότε η βελτίωση της διαφάνειας και η δημοσίευση μετρήσεων για την ρύθμιση του περιεχομένου είναι ένα ακόμα σημαντικό βήμα. Το Facebook υποστηρίζει ότι καταβάλλει κάθε δυνατή προσπάθεια για την αντιμετώπιση του εξτρεμιστικού περιεχομένου, αλλά ο ισχυρισμός αυτός είναι δύσκολο να εκτιμηθεί χωρίς πλήρη στοιχεία -και το Facebook είναι μια από τις καλύτερες εταιρείες από πλευράς παροχής στοιχείων. Εκτός από την αναφορά του αριθμού των λογαριασμών που κλείνουν ή του περιεχομένου που μπλοκάρουν, οι μεγάλες εταιρείες θα πρέπει να απαριθμήσουν τα προβλήματα περιεχομένου που έχουν επισημανθεί από χρήστες (user-flagged content problems) και τον χρόνο που τους χρειάζεται για να αντιδράσουν. Πρέπει επίσης να αναφέρουν το ποσοστό σωστού και λάθους: Δηλαδή, αν το Facebook αφαιρέσει εκατομμύρια βίντεο, ποιο ποσοστό αυτών ήταν πραγματικά νόμιμο περιεχόμενο (για παράδειγμα, ένας οργανισμός ειδήσεων που χρησιμοποιεί ένα κλιπ του μανιφέστου του El Paso ή του βίντεο στο Christchurch); Τέτοιες αναφορές θα βοηθούσαν να διασφαλιστεί ότι οι εταιρείες δεν αντιδρούν υπερβολικά στο περιεχόμενο που μοιάζει με [περιεχόμενο] μίσους, επιτρέποντας καλύτερες κρίσεις σχετικά με το πότε θα μπορούσε να κατασταλεί ο νόμιμος λόγος, ποιες μέθοδοι σήμανσης περιεχομένου είναι πιο αποτελεσματικές, και εάν οι αλγόριθμοι της τεχνητής νοημοσύνης (AI) είναι αποτελεσματικοί.

Τέλος, αν και οι εκκλήσεις για απαγόρευση [17] [των βίντεο] ζωντανής ροής (live-streaming) και άλλων μορφών media δεν είναι ρεαλιστικές, το Facebook και άλλες εταιρείες μπορούν να θέσουν όρια σε αυτά, με τρόπους που δεν εμποδίζουν την κύρια λειτουργία τους. Μετά τους πυροβολισμούς στο Christchurch, το Facebook δημιούργησε μια πολιτική «ενός χτυπήματος» (one-strike) [18] που εμποδίζει τους χρήστες οι οποίοι ασχολούνται με τρομοκρατικό περιεχόμενο με συγκεκριμένους τρόπους -για παράδειγμα, με το να μοιράζουν μια δήλωση από μια τρομοκρατική ομάδα χωρίς να προσθέτουν κανένα πλαίσιο περιεχομένου (context)- από το να χρησιμοποιούν το Facebook Live. Παρομοίως, σε μια προσπάθεια να μειώσει την παραπληροφόρηση και την εξτρεμιστική προπαγάνδα στην Ινδία, το Facebook έχει θέσει όρια [19] στον αριθμό των χρηστών που μπορούν να μεταφέρουν μηνύματα στο WhatsApp. Τέτοιοι περιορισμοί δεν θέτουν σε κίνδυνο την ελεύθερη έκφραση των περισσότερων χρηστών του Facebook, αλλά ταυτόχρονα δυσκολεύουν σημαντικά την μετάδοση και κοινή χρήση τρομοκρατικών επιθέσεων σε πραγματικό χρόνο. Άλλα κοινωνικά δίκτυα και υπηρεσίες κοινής χρήσης αρχείων πρέπει να ακολουθήσουν το παράδειγμα.

Μεταρρυθμίσεις όπως αυτές δεν θα είναι πανάκεια. Ωστόσο, χωρίς αυτές το πρόβλημα μόνο θα αυξηθεί. Την ώρα που γινόταν η τελευταία σύνοδος στον Λευκό Οίκο την περασμένη Παρασκευή, ο Crusius ήταν ο τελευταίος γνωστός λευκός εθνικιστής που ακολούθησε το μοντέλο του Tarrant. Το επόμενο βράδυ δεν ήταν πλέον. Το Σάββατο, ένας νεαρός Νορβηγός έβαλε το δικό του μήνυμα κατά των μεταναστών στο 8chan, επαινώντας τον Tarrant και τον Crusius, κατονομάζοντάς τους. Αργότερα εκείνο το βράδυ, εισήλθε σε ένα τέμενος έξω από το Όσλο, οπλισμένο με ένα όπλο χειρός και δύο όπλα «σαν κυνηγετικά» και άνοιξε πυρ.

Copyright © 2019 by the Council on Foreign Relations, Inc.
All rights reserved.

Στα αγγλικά: https://www.foreignaffairs.com/articles/united-states/2019-08-15/how-big...

Σύνδεσμοι:
[1] https://abcnews.go.com/US/death-toll-rises-22-el-paso-shooting-victims/s...
[2] https://www.foreignaffairs.com/articles/united-states/2018-10-30/real-te...
[3] https://techcrunch.com/2019/08/09/reports-say-white-house-has-drafted-an...
[4] https://www.cnn.com/2019/08/09/tech/white-house-social-media-executive-o...
[5] https://www.washingtonpost.com/world/facebook-removed-15-million-videos-...
[6] https://techcrunch.com/2019/05/02/facebook-alex-jones-laura-loomer-ban/
[7] https://extremism.gwu.edu/sites/g/files/zaxdzs2191/f/downloads/JMB%20Dim...
[8] https://www.wired.com/story/why-tech-platforms-dont-treat-all-terrorism-...
[9] https://motherboard.vice.com/en_us/article/a3xgq5/why-wont-twitter-treat...
[10] https://www.telegraph.co.uk/technology/information-age/facebook-removing...
[11] https://www.theverge.com/2019/2/25/18229714/cognizant-facebook-content-m...
[12] https://foreignpolicy.com/2019/06/21/facebook-keeps-failing-in-myanmar-z...
[13] https://www.brookings.edu/wp-content/uploads/2019/07/GRNTT-Paper-No.-7.pdf
[14] https://yalebooks.yale.edu/book/9780300235883/behind-screen
[15] https://www.theverge.com/2019/8/1/20750752/facebook-child-exploitation-t...
[16] https://www.lawfareblog.com/how-create-terrorism-designation-process-use...
[17] https://www.kotaku.com.au/2019/03/prime-minister-scott-morrison-calls-fo...
[18] https://techcrunch.com/2019/05/14/facebook-live-streaming-abuse-one-stri...
[19] https://www.usatoday.com/story/tech/news/2019/01/21/facebook-owned-whats...

Μπορείτε να ακολουθείτε το «Foreign Affairs, The Hellenic Edition» στο TWITTER στην διεύθυνση www.twitter.com/foreigngr αλλά και στο FACEBOOK, στην διεύθυνση www.facebook.com/ForeignAffairs.gr και στο linkedin στην διεύθυνση https://www.linkedin.com/company/foreign-affairs-the-hellenic-edition