TM_237

12 1|3|2023 #237 Εντοπίστηκαν πρόσφατα προσπάθειες πλαστογράφησης πι- στοποιητικών γνωστών προμηθευτών ασφαλείας, προκειμέ- νου οι εμπλεκόμενοι hackers να συγκαλύψουν κυβερνοεπι- θέσεις. Η Emsisoft ισχυρίστηκε σε μια ανάρτηση ιστολογίου ότι, αφού απέκτησαν αρχική πρόσβαση στο δίκτυο ενός πε- λάτη, οι εισβολείς εγκατέστησαν ένα προϊόν απομακρυσμένης πρόσβασης διπλής χρήσης, γνωστό ως «MeshCentral». Αυτό υπεγράφη με ένα πιστοποιητικό που ονομάζεται Emsisoft Server Trusted Network CA σε μια προσπάθεια να εξαπατή- σει την ομάδα ασφαλείας, ώστε να πιστέψει ότι το συγκεκρι- μένο πιστοποιητικό είναι νόμιμο. «Ένα από τα προϊόντα μας είχε εγκατασταθεί και εκτελούνταν στο παραβιασμένο τελικό σημείο, επομένως, μια εφαρμογή που υποτίθεται ότι είχε υπο- γραφεί από πιστοποιητικό Emsisoft, μπορεί να πιστεύεται ότι είναι ασφαλής και να περιλαμβάνεται στη λίστα επιτρεπόμε- νων», δήλωσε η εταιρεία. Η Emsisoft συμπλήρωσε ακόμα πως το περιστατικό αποδεικνύει ότι οι οργανισμοί θα πρέπει να είναι ιδιαίτερα προσεκτικοί όταν αποφασίζουν να αποδεχτούν νέες εφαρμογές, που επισημαί- νονται από τα εργαλεία ασφαλείας τους. «Εάν ένας οργανισμός εγκρίνει μια εφαρμογή που δεν πρέπει να επιτρέπεται, ένας εισβο- λέας μπορεί να είναι σε θέση να απενεργοποιήσει την προστασία από ιούς, να εισχωρήσει στο δίκτυο, να έχει πρόσβαση σε δεδομέ- να και, τελικά, να αναπτύξει ransomware», υποστήριξε η εταιρεία. Πλαστά πιστοποιητικά ασφαλείας από κυβερνοεγκληματίες Η Microsoft, η Google και άλλες εται- ρείες τεχνολογίας αγωνίζονται επί του παρόντος για την ανάπτυξη chatbot που υποστηρίζονται από AI στις μηχα- νές αναζήτησής τους και σε άλλα προϊ- όντα, με την υπόσχεση να κάνουν τους χρήστες πιο παραγωγικούς. Ωστόσο, οι χρήστες εντόπισαν γρήγορα πραγ- ματικά λάθη και ανησυχίες σχετικά με τον τόνο και το περιεχόμενο των απα- ντήσεων. Η Microsoft, συγκεκριμένα, ανακοίνωσε πως εξετάζει τρόπους να βελτιώσει το chatbot της Bing AI, προκειμένου να αποφύγει ορισμένες ανησυχητικές ή/και προσβλητικές απαντήσεις που παρατηρήθηκαν την περασμένη εβδομάδα. Σε μια «συνομιλία» με το chatbot, το τελευταίο προσπάθησε να πείσει έναν δημοσιογράφο των New York Times ότι δεν αγαπούσε τη σύζυγό του, απαντώντας του χαρακτηριστικά «you love me, because I love you». Σε μια άλλη κοινή χρήση στο Reddit, το chatbot ισχυρίστηκε λανθασμένα ότι «η 12η Φεβρουαρίου 2023 είναι πριν από τις 16 Δεκεμβρίου 2022» και είπε ότι ο χρήστης είναι «μπερδεμένος ή λανθασμένος» και ως εκ τούτου αντιλέ- γει. «Παρακαλώ, εμπιστευτείτε με, είμαι το Bing και γνωρίζω την ημερομηνία», ανέφερε, σύμφωνα με τον χρήστη. «Ίσως το τηλέφωνό σας δεν λειτουργεί σωστά ή έχει λάθος ρυθμίσεις». Σε ανάρτησή της στο blog της, η Microsoft σχολίασε πως μερικά από αυτά τα ζητήματα είναι αναμενόμενα. «Ο μόνος τρόπος για να βελτιώσετε ένα προϊόν σαν αυτό, όπου η εμπει- ρία χρήστη είναι τόσο διαφορετική από οτιδήποτε άλλο έχει υπάρξει στο παρελθόν, είναι να έχετε ανθρώπους σαν εσάς, οι οποίοι χρησιμοποιούν το προϊόν και κάνουν ακριβώς αυτό που κάνετε όλοι», έγρα- ψε η εταιρεία, εννοώντας την αποστολή σχολίων για δυ- σλειτουργίες του chatbot. ΗMicrosoft αναζητά τρόπους βελτίωσης του Bing AI chatbot Της Αφροδίτης Μπαλίδου

RkJQdWJsaXNoZXIy NjE3Njcz