Για να καταπολεμήσει την λεκτική βία και την παρενόχληση, το Facebook χρησιμοποιεί μια νέα μέθοδο προγραμματισμού που μπορεί να ανατρέψει τους αλγορίθμους σήμανσης περιεχομένου, με τεχνολογία AI, με ταχύτερο ρυθμό.

Πριν λίγες μέρες ο CTO του Facebook, Mike Schroepfer, μίλησε σχετικά με την AI προσέγγιση που φέρει την ονομασία "αυτοελεγχόμενη μάθηση", η οποία υπόσχεται να βοηθήσει το κοινωνικό δίκτυο στον εντοπισμό προσβλητικού περιεχομένου στις συνεχώς μεταβαλλόμενες μορφές του.

"Το μέλλον εδώ είναι αρκετά συναρπαστικό", δήλωσε ο Schroepfer στο ετήσιο συνέδριο προγραμματιστών της εταιρείας. "Έχουμε δει πολλά επιτεύγματα μόλις τα τελευταία δύο χρόνια στην ιδέα της αυτοελεγχόμενης μάθησης".

Προς το παρόν, το Facebook μπορεί να εντοπίσει στην πλατφόρμα μόνο τα μισά περί λεκτικής βίας, προτού τα αναφέρει κάποιος χρήστης. Σε ό,τι αφορά την διαδικτυακή παρενόχληση και το bullying, το ποσοστό εντοπισμού είναι αρκετά χαμηλότερο, ακουμπώντας το 15 τοις εκατό.

Η μεγάλη αιτία αυτού είναι η γλώσσα του περιεχομένου, καθώς δεν αναρτάται συνήθως σε μια ευκόλως κατανοητή γλώσσα, τουλάχιστον για τους υπολογιστές. "Σε ο,τι αφορά τους διάφορους (λεκτικής βίας) όρους , μπορούν να πάρουν ένα πολύ διαφορετικό νόημα, ανάλογα με το περιεχόμενο," είπε η υπεύθυνη analytics του Facebook, Veronika Belokhvostova, στο PCMag.

Αυτό που περιπλέκει το πρόβλημα, είναι το πως μπορεί η λεκτική βία να περιληφθεί σε έξυπνα memes. Η διατύπωση μπορεί να αλλάξει ταχύτατα βάσει των πρόσφατων πολιτικών και κοινωνικών εξελίξεων. Για παράδειγμα, η λέξη "καραβάνι" έγινε δημοφιλής όρος σε συζητήσεις που αφορούσαν τους μετανάστες των ΗΠΑ από Λατινική Αμερική.

Τα υπάρχοντα AI συστήματα του Facebook ήδη μπορούν να αντιμετωπίσουν άλλες μορφές προβληματικού περιεχομένου όπως spam, γυμνό περιεχόμενο και τρομοκρατική προπαγάνδα. Ωστόσο, τα συστήματα δημιουργήθηκαν με παλαιότερη προγραμματιστική προσέγγιση που ονομάζεται "εποπτευόμενη μάθηση". Ουσιαστικά, αυτό περιλαμβάνει τη λήψη μεγάλων συνόλων δεδομένων, όπως είναι οι εικόνες ή το βίντεο, και τη διδασκαλία του AI να αναγνωρίζει τα διάφορα χαρακτηριστικά μέσα σε αυτά, όπως εάν υπάρχει θηλή ή αν απεικονίζεται γραφική βία.

Αν και αποτελεσματική, η εποπτευόμενη μάθηση έχει ένα μεγάλο μειονέκτημα... ο προγραμματιστής θα πρέπει να "χαρακτηρίσει" τα δεδομένα στα οποία εκπαιδεύεται η AI, κάτι που περιλαμβάνει σήμανση σε κάθε αντικείμενο μέσα σε φωτογραφίες και βίντεο. "Παραδόξως αυτό είναι κάτι χειροκίνητο και αργό," είπε ο CTO του Facebook. "Μπορεί να πάρει μέρες, εβδομάδες, ακόμη και μήνες για να ολοκληρωθεί η όλη διαδικασία."

Η αυτοελεγχόμενη μάθηση, από την άλλη, επιτρέπει ουσιαστικά την παράλειψη πολλών από τη διαδικασία της επισήμανσης. Αντ 'αυτού, η AI έχει προγραμματιστεί για να προβλέψει πρώτα τι μπορεί να υπάρχει στα ακατέργαστα δεδομένα. Η AI μπορεί στη συνέχεια να συντονιστεί με ένα μικρότερο σετ ετικετών δεδομένων.

Ως αποτέλεσμα, ο προγραμματιστής ίσως χρειαστεί να συλλέξει και να επισημάνει μόνο 80 ώρες αξίας δεδομένων σε αντίθεση με τις 12.000 για να κάνει την AI να δουλέψει. Το ίδιο ισχύει και για την οικοδόμηση της AI για την καταπολέμηση της λεκτικής βίας. Σύμφωνα με τον υπεύθυνο της AI του Facebook Manohar Paluri, η προσέγγιση αυτή βοήθησε την εταιρεία να αντιμετωπίσει διάφορες μορφές ομιλίας μίσους χρησιμοποιώντας "δέκα φορές" λιγότερα δεδομένα εκπαίδευσης.

"Αυτή είναι η δύναμη του αυτοελέγχου", είπε ο Paluri στο συνέδριο προγραμματιστών του Facebook. "Μας επιτρέπει να κινηθούμε γρηγορότερα."

Ο χρόνος θα δείξει αν η τεχνολογία αυτή θα κάνει τη διαφορά. Ωστόσο, ορισμένα από τα προβλήματα μείωσης περιεχομένου του Facebook ενδέχεται να έχουν περισσότερες συνέπειες από την πολιτική παρά από την ανίχνευση περιεχομένου. Για παράδειγμα, τον Μάρτιο, η εταιρεία άρχισε να απαγορεύει τον όρο «λευκός εθνικισμός» ως ομιλία μίσους, μια κίνηση που κάποιοι επικριτές ισχυρίζονται ότι έγινε πολύ αργά. Εν τω μεταξύ, άλλοι έχουν κατηγορήσει το κοινωνικό δίκτυο για την καταστολή της ελευθερίας του λόγου, στην αποστολή του να σταματήσει την διαδικτυακή παρενόχληση.

Ο CTO του Facebook αναγνώρισε πως οι άνθρωποι μπορεί να είναι σκεπτικοί με το Facebook και την βοήθεια της AI στην επίλυση των προβλημάτων της εταιρείας. Αλλά ο Schroepfer είπε ότι οι συνεχείς εξελίξεις στην τεχνητή νοημοσύνη τον κάνουν αισιόδοξο για το μέλλον. "Δεν υπάρχει μια απλή απάντηση, αλλά υπάρχει πολλή δουλειά", είπε. «Οι λύσεις δεν πρόκειται ποτέ να είναι τέλειες, αλλά πρέπει να συνεχίσουμε».

Πηγή: gr.pcmag.com