Il Signore disse a Mose’: “manda uomini a esplorare il paese di Ca’naan che sto per dare agli Israeliti…”. Mose’ dunque li mando’ a esplorare il paese di Ca’naan e disse loro: “Salite attraverso il Negheb; poi salirete alla regione montana e osserverete che paese sia, che popolo l’abiti, se forte o debole, se poco o molto numeroso;

come sia la regione che esso abita, se buona o cattiva, e come siano le citta’ dove abita, se siano accampamenti o luoghi fortificati; come sia il terreno, se fertile o sterile, se vi siano alberi o no. Siate coraggiosi e portate frutti del paese”. Dal Libro dei Numeri 13,1-2.17-27
Secondo l’ipotesi maggiormente condivisa dagli studiosi, la redazione definitiva del libro dei numeri risale al VI-V secolo a.C.. Questo periodo, cosi lontano nel tempo, conferma che l’interesse per “l’altro” è sempre stato una priorità per l’uomo. In tale contesto, trova quindi idonea collocazione il termine Intelligence che, traendo origine dal termine latino Intellegentia, ci rimanda al significato di conoscenza, comprensione, cognizione su qualcuno o qualche cosa. Purtroppo, un’errata interpretazione di tale significato ha determinato un errore sistemico in coloro che sono quotidianamente alle prese con l’analisi, sia essa di natura intelligence, strategica, geopolitica, economico-finanziaria ecc… Tale errore risiede nella credenza che un’ ampia conoscenza dell’altro (inteso come l’oggetto di osservazione), sia di per se sufficiente ad elaborare un’analisi previsionale che delinei correttamente quali potranno essere i futuri sviluppi della situazione osservata. Come dimostrato da Philip Tetlock – Professore di Psicologia presso l’Università della Pennsylvania – spesso la sola conoscenza, seppur approfondita, non è sufficiente ad esprimere un’analisi corretta. Infatti, in uno studio ventennale riportato nel suo libro Expert Political Judgement, Tetlock ha analizzato 82.361 previsioni, realizzate da 284 analisti esperti, dimostrando con metodi statistici che un gruppo di scimmie che avesse lanciato 82.361 freccette contro una lavagna con sopra le domande avrebbe ottenuto risultati più soddisfacenti degli esperti. Tetlock nota anche che alcuni esperti prevedono un po’ meglio di altri e arriva alla conclusione che ciò dipenda dal modo in cui questi pensano. Per illustrare il concetto fa riferimento al riccio e alla volpe citati dall’antico poeta Antiloco ed utilizzati dal filosofo Isaiah Berlin per esprimere due distinte categorie umane che il filosofo rappresenta, appunto, attraverso la metafora del riccio e della volpe. Il riccio ha un unico sistema di riferimento e, quindi, molte probabilità di sbagliare perché questa centralità del pensiero lo spinge a fare previsioni auto-riferite. Al contrario la volpe persegue molti fini muovendosi in risposta alle situazioni. Quindi, ha maggiori possibilità di ridurre le probabilità di errore. Questa chiave di lettura, certamente condivisibile, non è però sufficiente a spiegare la difficoltà di svolgere un’analisi previsionale di qualità. Infatti, è indispensabile introdurre un ulteriore elemento che ci viene fornito tra il 544 a.C. e il 496 a.C. dal Generale e filosofo cinese Sun tzu che, oltre 2500 anni fa’, nel libro L’arte della guerra ci spiega che “se non conosci te stesso, né conosci il tuo nemico, sii certo che ogni battaglia sarà per te fonte di pericolo gravissimo”. Sun Tzu individua così il vero elemento chiave dell’analisi identificabile nella conoscenza di stessi, che troppo spesso viene messa in secondo piano o addirittura ignorata dagli analisti.

A proposito di analisi

Ma cosa si intende quando si parla di analisi ed in particolare di analisi Intelligence? Per chi scrive l’analisi è un processo mentale finalizzato ad acquisire informazioni per trasformarle in Intelligence ovvero in un prodotto di natura previsionale che consenta ad un decisore di arginare l’incertezza e di essere ben informato anche in relazione alle possibili conseguenze che un’eventuale decisione potrebbe determinare. Tale processo analitico si sviluppa attraverso l’utilizzo sistematico e consapevole delle informazioni disponibili che, unite alla conoscenza di se stessi e del contesto, devono consentire lo sviluppo di una sensibilità percettiva propedeutica all’individuazione di eventuali alterazioni dell’ambiente. L’analisi Intelligence è, quindi, un lavoro complesso. In particolare, a causa della natura dell’essere umano che, contrariamente alla credenza comune, agisce e reagisce ai fatti e agli eventi in maniera spesso irrazionale. Per questo, a dispetto dei recenti sviluppi compiuti dalla tecnologia, lo strumento principale dell’analisi continua ad essere la mente umana. Di conseguenza, un processo di analisi efficace non può prescindere dalla conoscenza concreta degli effetti che alcune naturali distorsioni del pensiero possono avere sull’intero ciclo di analisi fin dalla fase del reperimento delle informazioni. A tal riguardo, la prima difficoltà che l’analista deve affrontare è quella delle scelte. Infatti, la mente umana presenta dei limiti nella capacità di processare ogni singolo elemento legato a tutte le informazioni disponibili. Quindi l’analista, come del resto qualunque individuo nella società, nel momento in cui deve assumere una decisione o decidere a quale informazione attribuire il maggior valore, utilizza inconsciamente delle scorciatoie mentali definite euristiche. Le euristiche sono per lo più strategie cognitive automatiche, ovverosia strategie che le persone mettono in atto senza rendersene conto e sono frutto del processo di evoluzione del nostro cervello. Tra coloro che si sono maggiormente occupati delle euristiche troviamo lo psicologo e premio Nobel, Daniel Kahneman (1974) secondo il quale queste strategie della mente possiedono le seguenti caratteristiche: sono abitudinarie, molto efficienti, automatiche e tendenti alla semplificazione. L’euristica non ha quindi un’accezione negativa in quanto consente all’individuo di semplificare la “complessità” quotidiana giungendo a valutazioni rapide anche in presenza di poche ed inaccurate informazioni. In sostanza, tale meccanismo ci semplifica la vita con il minimo sforzo. Purtroppo, ciò che appare utile e valido per svolgere compiti elementari durante la giornata (ad es. guidare e contemporaneamente parlare con la persona che abbiamo accanto) può non essere altrettanto utile nel caso in cui si è chiamati a svolgere attività più complesse quali ad esempio quelle analitiche. Infatti, molteplici ricerche hanno dimostrato che in diverse circostanze queste euristiche generano una serie di distorsioni o bias capaci di inficiare l’intero processo di analisi e di determinare errori decisionali e di valutazione dalle conseguenze imprevedibili. Solitamente ci si rende conto del bias solo a posteriori ovvero dopo che ha effettivamente condizionato la nostra decisione. Ciononostante è proprio Kahneman a spiegarci che, in realtà, la disponibilità di una specifica etichetta diagnostica per un determinato bias rende più facile prevederlo, riconoscerlo e, quindi, contrastarlo. Ancora, secondo Richard J. Heur autore di “Psychology of Intelligence Analysis” i bias cognitivi sono errori di processazione delle informazioni in qualche modo coerenti che, in quanto tali, possono essere previsti. Ecco, perciò, che la vera conoscenza che l’analista deve avere di sé, risiede nella comprensione di quei bias che possono compromettere il processo analitico in ogni sua fase. A tal riguardo, tra le distorsioni più significative ancora Kahneman individua le seguenti: ancoraggio, conferma e rappresentatività.

Ancoraggio – Il bias dell’ancoraggio rappresenta la tendenza ad enfatizzare, prediligendole, le informazioni più simili a quelle già disponibili nella memoria. In particolare, l’ancoraggio si realizza nel momento in cui l’analista, attribuito un determinato valore alle prime informazioni disponibili, non riesce successivamente a discostarsi dalla valutazione iniziale. Conseguentemente, nell’istante in cui è chiamato ad esprimere una valutazione rispetto ad un fatto ignoto, l’analista tenderà ad esprimere il giudizio partendo da un valore già disponibile. Se pensiamo, ad esempio, alle armi chimiche utilizzate da Saddam Hussein contro i soldati iraniani (guerra Iran-Iraq combattuta dal 1980 al 1988) si comprende come possa essere stato facile, anche in assenza di evidenze concrete, accettare l’idea che il dittatore iracheno potesse disporre di armi di distruzione di massa.

Conferma – Il bias della conferma si manifesta tendenzialmente dopo che abbiamo sviluppato un ipotesi o una valutazione. In pratica, tale bias induce a cercare solo evidenze che confermano quanto precedentemente affermato, tralasciando tutto ciò che appare contrario. Quindi, nel momento in cui un analista sviluppa un assessment vi è la tendenza a ricercare solo informazioni che supportano la valutazione iniziale, ignorando, inconsciamente tutto ciò che potrebbe invalidarla. In questo caso vi è la naturale tendenza ad affermare che anche se l’informazione che non supporta la nostra tesi è ritenuta importante[1], essa verrà comunque tenuta in debita considerazione. Tuttavia, per l’analista è importante ragionare sulla quotidianità dell’attività di analisi e non sull’eccezione. Una normalità nella quale capita di ignorare informazioni semplicemente perché non in linea con quanto precedentemente affermato.

Rappresentatività – Il bias della rappresentatività descrive la propensione ad esprimere giudizi di probabilità in base a quanto un evento X è rappresentativo rispetto al processo osservato o valutato. In pratica, quando si incorre in questo tipo di bias non viene considerata la numerosità di un campione o le semplici regole della probabilità, bensì, un rappresentazione dell’evento già preesistente nella mente. Interessante, a tal proposito, lo studio condotto nel 1981 dal Professore di Psicologia Thomas Gilovich, il quale chiese ad una classe di studenti di Scienze Politiche di formulare una linea di indirizzo della politica estera statunitense durante una crisi internazionale. Nello specifico, gli studenti furono divisi in due gruppi. Al primo gruppo venne consegnato uno scenario, privo di indicazioni significative, relativo alla II Guerra Mondiale e al secondo gruppo uno relativo al conflitto in Vietnam. Il risultato dell’esperimento fu molto interessante. Infatti, il primo gruppo formulò una strategia inequivocabilmente di tipo interventista mentre nel caso dello scenario Vietnamita si scelse in maniera netta una strategia isolazionista. Gilovich concluse che le scelte assunte furono basate esclusivamente sulla rappresentazione già preesistente che gli studenti avevano dei due eventi, indipendentemente dal tipo di informazioni disponibili.

Riflessioni conclusive

Studi recenti condotti dall’Istituto di Ricerche e Scienze comportamentali dell’Esercito statunitense hanno evidenziato che oltre ai bias di natura cognitiva esistono anche “distorsioni” di natura culturale ed organizzativa. Queste tipologie di bias agiscono nel medesimo modo, attraverso semplificazioni che non forniscono un’immagine reale della situazione o del contesto che si è chiamati ad osservare. A questo punto, è importante domandarsi quali debbano essere le contromisure che un analista dovrebbe adottare per cercare di ottemperare ad uno dei principi cardine dell’Intelligence: l’oggettività. Per chi scrive la “ricetta” è semplice e a tratti potrebbe apparire banale. Tuttavia, si tratta di un metodo impossibile da realizzare se privo della reale e concreta intenzione di sviluppare un nuovo tipo di cultura dell’Intelligence. Il presupposto di base è quello della completa collaborazione tra tutti gli attori coinvolti nel processo di analisi. Quindi, è importante riuscire a sviluppare eccellenti capacità di team building, unite ad attività di brainstorming strutturato e tecniche diagnostiche di pensiero critico. In definitiva, questi tre fattori approcciati congiuntamente, possono rappresentare una prima importante contromisura per limitare il pericolo dei bias e consentire, nel contempo, di osservare non solo la luce già visibile a tutti ma anche e, soprattutto, le ombre che da tale luce vengono generate

[1] Ad esempio, se il 10 settembre del 2001 fosse giunta, sul tavolo dell’analista X un’informativa con la quale si paventava la possibilità che il giorno dopo due aerei con a bordo terroristi islamici si sarebbero abbattuti contro le Twin Tower, forse il nostro analista X si sarebbe soffermato qualche istante a riflettere ritenendo importanti, quanto meno, gli effetti che tale azione avrebbe potuto comportare.

Dott. Mirko Lapi

Avatar

Di Atlasorbis

Redazione Nazionale

Lascia un commento