SECURITY REPORT 161
6 | SECURITY REPORT Απρίλιος 2025 EDITORIAL Η παγκόσμια αγορά ανίχνευσης και αναγνώρισης συναισθημάτων εκτιμάται ότι θα φτάσει τα 136,46 δισεκατομμύρια δολάρια έως το 2030, καταγράφοντας ετήσιο ρυθμό ανάπτυξης 16,0% (CAGR) από το 2024 έως το 2030, σύμφωνα με νέα έκθεση της Grand View Research, Inc. Η αυξανόμενη ζήτηση αυτής της τεχνολογίας δικαιολογείται χάρη στην ανάγκη για όλο και πιο βελτιωμένες λύσεις ασφαλείας, που επιτηρούν την συμπεριφορά του πλήθους και εντοπίζουν πιθανές απειλές, με απώτερο στόχο την αναβάθμιση της προστασίας κατοικιών, καταστημάτων, επιχειρήσεων κ.λπ., χάρη στην αυξανόμενη ζήτηση από διάφορους τομείς της ενσωμάτωσης συναισθηματικής νοημοσύνης, αλλά και χάρη στην όλο και πιο ευρεία χρήση λογισμικού αναγνώρισης συναισθημάτων σε επιχειρήσεις. Στην ταχεία ανάπτυξη της τεχνολογίας αυτής, θα συμβάλει και η συνεχής πρόοδος που παρουσιάζουν οι τομείς της μηχανικής μάθησης (ML) και της επεξεργασίας φυσικής γλώσσας (NLP). Η τεχνολογία ανίχνευσης και ανάλυσης συναισθημάτων βασίζεται στις μεταβολές των εκφράσεων του προσώπου των ατόμων, στον τόνο της φωνής ή ακόμα και στον τρόπο που βαδίζει και αναμένεται να προσφέρει σημαντικά οφέλη σε πολλούς κλάδους. Για παράδειγμα, χρησιμοποιείται ευρέως για την αξιολόγηση του επιπέδου ικανοποίησης των καταναλωτών σε συνδυασμό με τις τεχνολογίες Video Analytics και επεξεργασίας εικόνας. Μπορεί ακόμα να αξιοποιηθεί από τις εταιρείες για την πρόσληψη του ιδανικού για την εκάστοτε θέση εργασίας εργαζόμενου, ή εντοπίζοντας συναισθήματα, όπως θυμό, άγχος ή αγωνία, μπορεί να βοηθήσει, προσθέτοντας περαιτέρω στοιχεία, σε ποινικές υποθέσεις. Με σκοπό την ενσωμάτωση αυτού του είδους τεχνητής νοημοσύνης, ενισχύεται και η συνεργασία ειδικών AI, αναλυτών συναισθημάτων και επιχειρηματικών ομάδων, που έχουν κοινό στόχο την τεχνολογική πρόοδο, την αναβάθμιση της αγοραστικής εμπειρίας, αλλά και της ασφάλειας των διάφορων επιτηρούμενων χώρων. Σύμφωνα με πληροφορίες, η Google έχει ήδη αναπτύξει νέα μοντέλα AI που έχουν τη δυνατότητα να αναγνωρίζουν συναισθήματα. Αυτή η δυνατότητα έχει ενσωματωθεί στην οικογένεια μοντέλων PaliGemma 2, αλλά δεν είναι εξ αρχής ενεργοποιημένη, απαιτώντας να γίνουν οι απαραίτητες ρυθμίσεις για τον σκοπό αυτό. Δεν μας προκαλεί έκπληξη το γεγονός ότι η ανάπτυξη της τεχνολογίας ανίχνευσης και αναγνώρισης συναισθημάτων εγείρει ταυτόχρονα ανησυχίες και προβληματισμούς τα τελευταία χρόνια. Σύμφωνα με το BBC, το ινστιτούτο AI Now έχει προτείνει την αναγκαιότητα να επιβληθούν νομικοί περιορισμοί, μιας και υπάρχουν ανησυχίες περί καταπάτησης της ιδιωτικότητας και συλλογής προσωπικών δεδομένων, κάτι που δεν είναι απίθανο να σταθεί εμπόδιο στην εξάπλωση της εν λόγω τεχνολογίας. Σημειώνεται ότι ο τομέας του εν λόγω λογισμικού κυριάρχησε στην αγορά το 2023, κατέχοντας μερίδιο εσόδων 66,4%. Τα προϊόντα αναγνώρισης χειρονομιών και ανάλυσης της στάσης σώματος κατείχαν, επίσης, το μεγαλύτερο μερίδιο αγοράς του 2023, χάρη στη μεγαλύτερη ζήτηση για μη παρεμβατική και μη λεκτική συναισθηματική νοημοσύνη. Τέλος, ο τομέας της επιτήρησης και παρακολούθησης είχε το μεγαλύτερο μερίδιο εσόδων το 2023, λόγω της αυξανόμενης ανάγκης για προηγμένες λύσεις ασφάλειας και δημόσιας προστασίας, που αξιοποιούν χαρακτηριστικά συναισθηματικής νοημοσύνης. Βασίλης Κατσιαούνης www.securityreport.gr Εκδότης Αργύρης Νομικός arnomikos@securityreport.gr Ιδρυτικό Μέλος Μαίρη Βαγενά Διευθύντρια Έκδοσης Βασιλική Χονδροδήμου v.chondrodimou@librapress.gr Διευθυντής Σύνταξης Σωτήρης Χατζηστρατής Αρχισυντάκτης Βασίλης Κατσιαούνης v.katsiaounis@librapress.gr Σύνταξη Παναγιώτης Αποστολόπουλος Χάρης Ματθαίου Ελένη Μιχαηλίδου Marketing Manager Ίρις Λιακάκου i.liakakou@librapress.gr Συνεργάτες Παύλος Κερασίδης Καλλιτεχνική Επιμέλεια Σωτήρης Ανδρίτσος Web Developer Λευτέρης Χαμακιώτης Νομική Υποστήριξη Βασιλική Κέντογλου Λογιστήριο Χρύσα Τσιαντούλα fin@librapress.gr ΙΔΙΟΚΤΗΣΙΑ Libra Press Καυκάσου 145,113 64, Αθήνα, Τηλ.: 210-8815417, Fax: 210-8815416 e-mail: support@securityreport.gr ΤΕΥΧΟΣ #161 Η τεχνολογία αναγνώρισης συναισθημάτων κερδίζει όλο και περισσότερο έδαφος
Made with FlippingBook
RkJQdWJsaXNoZXIy NjE3Njcz