Intelligenza Artificiale, Analisi Comportamentale e Sicurezza
Francesco Galvano


L’analisi comportamentale rappresenta uno degli strumenti più sofisticati e fondamentali per la sicurezza aeroportuale moderna, combinando l’esperienza e l’intuito umano con le potenzialità offerte dalle nuove tecnologie. In aeroporti come Ben Gurion a Tel Aviv, la sicurezza non si limita ai tradizionali controlli fisici, ma si basa su un sistema multilivello e fortemente preventivo che usa l’interazione diretta e la valutazione comportamentale per identificare potenziali rischi ancor prima che si arrivi al controllo bagagli. Qui, ogni passeggero è sottoposto a una serie di domande mirate, integrate dall’osservazione delle microespressioni facciali e del linguaggio corporeo da parte di personale addestrato, che valuta incongruenze o segni di nervosismo per attribuire un livello di rischio e modulare i successivi controlli.
L’applicazione umana dell’analisi comportamentale è supportata da sistemi tecnologici avanzati come telecamere di sorveglianza, scanner e tecniche biometriche per l’identificazione, ma si evita ancora il pieno affidamento a sistemi automatici che leggano direttamente le emozioni. Questo perché, sebbene le ricerche nel campo dell’intelligenza artificiale abbiano fatto passi avanti, il riconoscimento delle emozioni tramite telecamere e algoritmi è ancora agli albori nelle applicazioni di sicurezza aeroportuale. Le tecnologie AI impiegate oggi si concentrano maggiormente sull’individuazione di anomalie comportamentali evidenti come movimenti bruschi, stazionamenti anomali o abbandono di oggetti sospetti, piuttosto che sulla classificazione fine degli stati emotivi, ancora troppo suscettibili a errori e bias culturali.
Fra le soluzioni tecnologiche più promettenti vi sono sistemi come H.E.A.T. (Human Emotion Analysis Technology), sviluppato da ValiCor in collaborazione con il UK Cyber Security Group, che si propone di integrare l’analisi delle microespressioni, del linguaggio corporeo e di segnali fisiologici (come la variazione della sudorazione o delle pupille) per riconoscere stress, ansia o inganno in tempo reale. Nonostante alcuni case study abbiano evidenziato una riduzione significativa dei falsi positivi rispetto all’analisi manuale, H.E.A.T. rimane una soluzione sperimentale e non adottata su larga scala negli aeroporti. Il sistema si basa su elaborazioni edge per garantire la privacy, evitando la memorizzazione dei dati grezzi, ma richiede ambienti video ottimali e risente delle differenze culturali e individuali nelle espressioni emozionali.
Un’altra tecnologia emergente è Xeoma, sviluppata da Felenasoft, che offre moduli per il riconoscimento delle emozioni di base — come rabbia, paura o frustrazione — attraverso il feed delle telecamere CCTV. Questa tecnologia è impiegata soprattutto per migliorare l’esperienza del passeggero, segnalando in maniera proattiva zone dove si rilevano emozioni negative persistenti per permettere una migliore allocazione dello staff o un intervento mirato di assistenza. Xeoma si dimostra efficace con una precisione intorno all’85% in contesti controllati, ma presenta limiti nell’ambiente complesso e variegato degli aeroporti, come le interferenze di occhiali, mascherine o diversità culturali, con possibili falsi positivi in folle affollate e variegate.
Da un punto di vista etico e normativo, l’uso del riconoscimento emotivo in sicurezza aeroportuale si scontra con importanti questioni relative alla privacy e alla validità scientifica: in Europa, per esempio, il nuovo AI Act regola severamente l’uso di tecnologie che ricavano inferenze sugli stati emotivi interni degli individui, limitando la diffusione operativa di questi sistemi. Per tale motivo, la maggior parte degli aeroporti preferisce affidarsi a un modello ibrido in cui gli algoritmi AI supportano la rilevazione di anomalie semplici, mentre gli operatori umani esperti in analisi comportamentale (spesso formati con sistemi come il Facial Action Coding System, FACS) valutano i segnali più complessi ed è a loro che spetta la decisione finale.
Per la ricerca di comportamenti sospetti e la prevenzione di minacce reali, questo approccio ibrido rappresenta un equilibrio vitale tra tecnologia e competenza umana. Gli analisti comportamentali lavorano affinando le loro capacità nel riconoscere micro-espressioni e modelli di comportamento, mentre la tecnologia futura potrebbe supportarli meglio attraverso il calcolo dei dati in tempo reale, anche grazie all’edge computing per preservare la sicurezza e la privacy. In pratica, casi come quello di Ben Gurion dimostrano che la profilazione non casuale, sostenuta da dati empirici e validazione umana, è la chiave per garantire sicurezza senza compromettere la dignità dei passeggeri.
In conclusione, mentre le tecnologie emotion AI come H.E.A.T. e Xeoma offrono interessanti prospettive nel campo della sicurezza aeroportuale e del miglioramento dell’esperienza del passeggero, la loro efficacia operativa resta ancora limitata e sperimentale. Per ora, l’analisi comportamentale resta prerogativa di personale umano supportato da sistemi di sorveglianza avanzati, e il futuro sarà definito dall’armonizzazione tra questi elementi, nel rispetto delle normative e degli standard etici più elevati. Questo equilibrio continua a rappresentare una sfida centrale per il mondo della security, dove innovazione e attenzione al dettaglio umano possono fare la differenza nella prevenzione e nel contrasto di minacce sempre più sofisticate.
Riferimenti
Crossey, S., & O’Neill, M. (2013). Behaviour detection officers and the policing of airport security: “Systemised” and “de-systemised” modes of surveillance. Policing and Society, 23(4), 437–457.
Ekman, P. (2003). Emotions revealed: Recognizing faces and feelings to improve communication and emotional life. Times Books.
Ekman, P., & Friesen, W. V. (1978). Facial action coding system (FACS): A technique for the measurement of facial movement. Consulting Psychologists Press.
European Commission. (2021). Proposal for a regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). COM(2021) 206 final.
Felenasoft. (n.d.). Xeoma: Emotion recognition module. In Xeoma video surveillance software. Retrieved December 2, 2025.
Floridi, L., & Taddeo, M. (2016). What is data ethics? Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 374(2083), 20160360.
Hasisi, B., & Weisburd, D. (2011). Going beyond ascribed identities: The importance of procedural justice in airport security screening in Israel. Law & Society Review, 45(4), 867–892.
Mehta, D., Siddiqui, M. F., & Javaid, A. Y. (2018). Facial emotion recognition: A survey and recommendations. Multimedia Tools and Applications, 77(5), 5637–5650.
Matsumoto, D., Hwang, H. S., & Frank, M. G. (2013). Nonverbal communication: Science and applications. Sage.
Raphael, S. (2009). Airport security, behavioural profiling and the politics of risk in Israel. Security Dialogue, 40(1), 3–32.
Selbst, A. D., & Powles, J. (2017). Meaningful information and the right to explanation. International Data Privacy Law, 7(4), 233–242.
Smith, M. J., & Brooks, D. J. (2013). Security science: The theory and practice of security. Butterworth-Heinemann.
ValiCor. (n.d.). Human Emotion Analysis Technology (H.E.A.T.): Technical overview. UK Cyber Security Group. Retrieved December 2, 2025.
Zohar, A. (2016). The Israeli airport security model: Lessons for public security. Journal of Strategic Security, 9(3), 1–21.
Sitografia
https://felenasoft.com/xeoma/en/articles/emotions-recognition-in-xeoma/#request_demo
Behaviour Analysis Team
Ricerca scientifica e formazione professionale dal 2009
© 2026. All rights reserved.
