in

Οι δράστες έχουν μπερδευτεί σχετικά με τη δεοντολογία της σεξουαλικής κακοποίησης παιδιών από την AI

Μια φιλανθρωπική οργάνωση που βοηθά ανθρώπους που ανησυχούν για τις σκέψεις ή τη συμπεριφορά τους, αναφέρει ότι ένας αυξανόμενος αριθμός καλούντων αισθάνεται σύγχυση σχετικά με τη δεοντολογία της προβολής εικόνων κακοποίησης παιδιών από την AI.

Το Ίδρυμα Lucy Faithfull Foundation (LFF) λέει ότι οι εικόνες ΤΝ λειτουργούν ως πύλη εισόδου.

Το φιλανθρωπικό ίδρυμα προειδοποιεί ότι η δημιουργία ή η προβολή τέτοιων εικόνων εξακολουθεί να είναι παράνομη ακόμη και αν τα παιδιά δεν είναι πραγματικά.

Ο Neil, που δεν είναι το πραγματικό του όνομα, επικοινώνησε με τη γραμμή βοήθειας αφού συνελήφθη για τη δημιουργία εικόνων τεχνητής νοημοσύνης.

Ο 43χρονος αρνήθηκε ότι είχε οποιαδήποτε σεξουαλική έλξη προς τα παιδιά.

Ο εργαζόμενος στον τομέα της πληροφορικής, ο οποίος χρησιμοποίησε λογισμικό ΤΝ για να δημιουργήσει τις δικές του άσεμνες εικόνες παιδιών χρησιμοποιώντας προτροπές κειμένου, δήλωσε ότι δεν θα έβλεπε ποτέ τέτοιες εικόνες πραγματικών παιδιών, επειδή δεν τον ελκύουν. Ισχυρίστηκε ότι απλώς γοητεύεται από την τεχνολογία.

Τηλεφώνησε στο LFF για να προσπαθήσει να κατανοήσει τις σκέψεις του και οι χειριστές της κλήσης του υπενθύμισαν ότι οι ενέργειές του είναι παράνομες, ανεξάρτητα από το αν τα παιδιά είναι πραγματικά ή όχι.

Η φιλανθρωπική οργάνωση λέει ότι είχε παρόμοια τηλεφωνήματα και από άλλους που εκφράζουν σύγχυση.

Μια άλλη τηλεφωνήτρια επικοινώνησε αφού ανακάλυψε ότι ο 26χρονος σύντροφός της έβλεπε άσεμνες εικόνες παιδιών από την ΑΙ, αλλά είπε ότι δεν ήταν σοβαρό, επειδή οι εικόνες “δεν είναι πραγματικές”. Ο δράστης ζήτησε έκτοτε βοήθεια.

Μια δασκάλα ζήτησε τη συμβουλή της φιλανθρωπικής οργάνωσης επειδή ο 37χρονος σύντροφός της έβλεπε εικόνες που φαίνονταν παράνομες, αλλά κανείς από τους δύο δεν ήταν σίγουρος αν ήταν.

Ο Donald Findlater της LFF λέει ότι ορισμένοι καλούντες στην εμπιστευτική γραμμή βοήθειας Stop It Now πιστεύουν ότι οι εικόνες ΤΝ θολώνουν τα όρια του τι είναι παράνομο και τι ηθικά λάθος.

“Αυτή είναι μια επικίνδυνη άποψη. Κάποιοι παραβάτες πιστεύουν ότι αυτό το υλικό είναι κατά κάποιο τρόπο εντάξει να το δημιουργούν ή να το βλέπουν επειδή δεν βλάπτονται παιδιά, αλλά αυτό είναι λάθος”, λέει.

Σε ορισμένες περιπτώσεις, οι εικόνες κακοποίησης με τεχνητή νοημοσύνη μπορεί επίσης να επισημαίνονται ή να διαφημίζονται λανθασμένα ως εικόνες που έχουν δημιουργηθεί με τεχνητή νοημοσύνη και η διαφορά στον ρεαλισμό γίνεται όλο και πιο δύσκολο να εντοπιστεί.

Ο κ. Findlater λέει ότι η αποκλίνουσα σεξουαλική φαντασίωση είναι ο ισχυρότερος προγνωστικός παράγοντας υποτροπής για όποιον έχει καταδικαστεί για σεξουαλικό έγκλημα.

“Αν τροφοδοτείτε αυτή την αποκλίνουσα φαντασίωση, τότε κάνετε πιο πιθανό να κάνετε κακό στα παιδιά”, δήλωσε.

Η φιλανθρωπική οργάνωση αναφέρει ότι ο αριθμός των καλούντων που αναφέρουν εικόνες ΑΙ ως λόγο για το αδίκημά τους παραμένει χαμηλός, αλλά αυξάνεται. Το ίδρυμα καλεί την κοινωνία να αναγνωρίσει το πρόβλημα και τους νομοθέτες να κάνουν κάτι για να μειώσουν την ευκολία με την οποία δημιουργείται και δημοσιεύεται στο διαδίκτυο υλικό σεξουαλικής κακοποίησης παιδιών (CSAM).

Αν και η φιλανθρωπική οργάνωση δεν κατονομάζει συγκεκριμένους ιστότοπους στους οποίους έχει βρει τις εικόνες, ένας δημοφιλής ιστότοπος τέχνης της τεχνητής νοημοσύνης κατηγορείται ότι επιτρέπει στους χρήστες να δημοσιεύουν σεξουαλικές και γραφικές εικόνες πολύ νεαρών μοντέλων. Όταν το BBC προσέγγισε την Civit.ai για το θέμα τον Νοέμβριο, η εταιρεία δήλωσε ότι λαμβάνει “πολύ σοβαρά” υπόψη της πιθανή CSAM στον ιστότοπο και ζητά από την κοινότητα να αναφέρει εικόνες που οι χρήστες θεωρούν ότι “απεικονίζουν ανήλικους χαρακτήρες/ανθρώπους σε ώριμο ή φωτορεαλιστικό πλαίσιο”.

Η LFF προειδοποίησε επίσης ότι οι νέοι δημιουργούν CSAM χωρίς να συνειδητοποιούν τη σοβαρότητα του αδικήματος. Ένας καλούντας, για παράδειγμα, ανησυχούσε για τον 12χρονο γιο του, ο οποίος είχε χρησιμοποιήσει μια εφαρμογή τεχνητής νοημοσύνης για να δημιουργήσει ακατάλληλες γυμνόστηθες φωτογραφίες φίλων του και στη συνέχεια έψαχνε στο διαδίκτυο για όρους όπως “γυμνός έφηβος”.

Πρόσφατα έχουν κινηθεί ποινικές υποθέσεις στην Ισπανία και στις ΗΠΑ κατά νεαρών αγοριών που χρησιμοποιούσαν εφαρμογές για την απογύμνωση για να δημιουργήσουν γυμνές φωτογραφίες σχολικών φίλων.

Στο Ηνωμένο Βασίλειο, ο Graeme Biggar, επικεφαλής της Εθνικής Υπηρεσίας Καταπολέμησης του Εγκλήματος, δήλωσε τον Δεκέμβριο ότι ήθελε να δει αυστηρότερες ποινές για τους παραβάτες που κατέχουν εικόνες κακοποίησης παιδιών, προσθέτοντας ότι οι εικόνες κακοποίησης παιδιών από Τεχνητή Νοημοσύνη “έχουν σημασία, διότι εκτιμούμε ότι η προβολή αυτών των εικόνων -είτε πραγματικών είτε δημιουργημένων από Τεχνητή Νοημοσύνη- αυξάνει σημαντικά τον κίνδυνο οι παραβάτες να προχωρήσουν στη σεξουαλική κακοποίηση των ίδιων των παιδιών”.

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Η Microsoft και η OpenAI λένε ότι οι χάκερ χρησιμοποιούν το ChatGPT για να βελτιώσουν τις κυβερνοεπιθέσεις

Ο Elon Musk λέει ότι η νομική έδρα της SpaceX μεταφέρθηκε από το Delaware στο Τέξας