Individuo e black box

Read time: 3 mins

Vi sono due modi di guardare a un sistema, due condizioni costituenti. Si può guardare come è fatto il sistema: i suoi elementi e la relativa “struttura”. Oppure ci si può concentrare sulla “funzione” che i suoi elementi svolgono all’interno del sistema, come concorrono alla funzione globale che il sistema svolge. La prima si riferisce alla composizione del sistema, intesa nel senso più generale di “chi lo forma” e del “come” è fatto il sistema. La seconda si riferisce alle regole d'azione dentro il sistema: gli elementi di una struttura sono correlati tra loro in modo da rispondere dinamicamente a certi bisogni del sistema. La prima ottica è in genere vista come una visione “statica” del sistema, la seconda come “dinamica”, ma in realtà ambedue presentano aspetti statici e aspetti dinamici.

Concentriamoci su questo secondo modo di vedere un sistema. Esso è da molti considerato il più corretto, ma presenta non pochi problemi. In pratica, quello che possiamo chiamare “principio funzionale dei sistemi”, guarda ai costituenti non come “parti” fisiche di tal ente, ma in rapporto alla funzione che questi “pezzi” svolgono nel sistema e l’interscambiabilità tra un costituente e l’altro nello svolgere una funzione è il requisito essenziale. In questo caso, infatti, va tenuto presente che in un sistema la stessa funzione può essere svolta da elementi diversi, così come lo stesso elemento può svolgere funzioni diverse all’interno di sistemi simili. Il mondo vivente ci fornisce un’ampia gamma di esempi di questo genere.

È una conquista culturale recente vedere la realtà come formata da sistemi complessi, le cui parti (i cui costituenti) siano a loro volta complessi e sono in interazione non lineare (che comporta ulteriore complessità) tra di loro. Per gestire tale complessità, si è sviluppata l’idea di “scatola nera” (black box). Essa è un utile stratagemma per cercare di semplificare, almeno i costituenti, dei sistemi complessi. Tale idea si basa sul presupposto che possiamo trascurare la complessità dei costituenti e guardarli solo all’interno del “tutto”, identificati da un input e un output, nient’altro. In dei casi specifici, per delle analisi parziali, questo è sicuramente un metodo che, semplificando, aiuta a trattare un sistema complesso. Non bisogna, tuttavia, mai dimenticare che si sta “semplificando”, nel senso letterale e metaforico del termine.

L'applicazione acritica ai sistemi umani di quest’ottica sistemica è pericolosa perché sottomette interamente l’individuo alla “globalità”, sia essa una classe, un’associazione o l’intera società. In quest’ottica, infatti, si trascura completamente il costituente della società (l’individuo) e si guarda esclusivamente al ruolo (la funzione) che esso svolge. Uno studente è semplicemente uno studente, non ha niente di particolare, di “speciale”. Questo vale per uno studente in una classe, per un lavoratore in un’azienda, come per un qualsiasi membro di un’associazione, per esempio il segretario di partito politico. Tutto è interscambiabile, tutto è predeterminato dal ruolo da svolgere. L’esempio più tragico, ma coerente con questa logica, può essere considerato il campo di sterminio nazista, dove gli “utenti” (gli ebrei) erano un “numero” (e le segreterie in cui uno studente è un numero di matricola?), tatuato sul braccio per evidenziarlo.

Trovare metodi e modelli per trattare anche quantitativamente le scienze umane è un’importante area di sviluppo scientifico. Dimenticarsi, o far finta di dimenticarsi, della complessità di un individuo economico (o anche di un animale in etologia) è un errore metodologico da evitare. Il corretto uso di un’ottica sistemica, in cui gli elementi e la totalità sono messi sullo stesso piano, è essenziale. Invece, si tende a vedere l’ottica sistemica come esclusivamente globale, dimenticando che un sistema è fatto di parti e quest’ottica porta un’avversione, non giustificata, a tutta la visione sistemica.

altri articoli

Quando l'intelligenza artificiale prende tre all'esame

Crediti: Mike MacKenzie/Flickr. Licenza: CC BY 2.0

Il rapporto tra matematica e intelligenza artificiale non è semplice come sembra: una rete neurale sviluppata da DeepMind ha fallito un esame di matematica di seconda superiore. Ma com'è possibile che l'attività più ostica per gli esseri umani risulti più semplice per le macchine, e viceversa? Probabilmente, le difficoltà dell'intelligenza artificiale non erano di natura matematica, bensì nella capacità di leggere il compito e interpetarne il contenuto. L'esperimento voleva iniziare un'indagine su come le macchine affrontino gli stimoli pensati per gli esseri umani, e non semplificati o codificati in un linguaggio artificiale; il test di matematica è, in quest'ottica, uno stimolo relativamente semplice che può dare molti indizi sul modo di ragionare delle macchine