0
information overload nelle aziende

L’Information Overload nelle Organizzazioni: sfide e riflessioni

Oggigiorno l’uomo convive con una realtà tecnologica in costante sviluppo e sempre più preponderante nella sua vita sociale.

L’analisi dei dati, unita allo studio dell’informatica, hanno dato vita a quella che viene chiamata ‘scienza sociale computazionale’, materia volta all’approfondimento di aspetti della società attraverso la miriade di informazioni digitali che quotidianamente le persone seminano sui propri canali social, nello scambio di messaggi ed e-mail.

Le scienze sociali computazionali, pertanto, sono frutto dell’incontro di due fenomeni: da un lato, la potenza e la velocità del calcolo che al giorno d’oggi il computer è capace di raggiungere, raccogliendo sempre più informazioni con una certa precisione nell’identificazione di esse, dall’altro, lo sviluppo della digitalizzazione che porta alla conservazione di dati all’interno di bacini sempre più estesi.

Naturalmente, oggi, il ‘grande elefante nella stanza’ sono i c.d. Big Data, i quali sono ricavabili da:

  • Nuove tecnologie per l’acquisizione dei dati (ad esempio, telescopi e satelliti più performanti).
  • Test di laboratorio rapidi (ad esempio, sequenziamento del DNA);
  • Telerilevamento, sia commerciale che governativo;
  • Dati amministrativi esaustivi nelle scienze sociali (il lavoro del governo nella raccolta dei dati).

Così come sono facilmente riscontabili online, grazie:

  • Alla moderna scienza delle reti (ad esempio, Internet);
  • Il monitoraggio dei comportamenti (ad esempio, le richieste di informazioni sui rimedi antinfluenzali)

La sfida nell’utilizzo di una grande mole di dati

Come anticipato, la facilità attraverso la quale è possibile entrare in possesso di dati, è altresì collegata alla capacità di elaborare minuziosamente enormi quantità di dati; questo accade grazie all’ high performance computing (HPC), riassumibile in:

  • tecnologie di storage per l’exascale computing (miliardi di GB);
  • apprendimento automatico (deep learning).

In passato la scienza si è sempre focalizzata principalmente sull’utilizzo di dati incrementali, cercando di conoscere l’elemento principale dell’esperimento. Questo, oggi, non è più possibile grazie all’enorme mole di dati analizzabili; pertanto, vi sono alcune aree incontaminate che devono essere scoperte.

La sfida odierna consiste nel fatto che l’uomo dispone di strumenti informatici e di enormi quantità di dati, molto più di quelli disponibili negli anni ’90, ma anche molto meno di quelli che saranno disponibili entro il 2050. Quindi, come si possono fare dei progressi che avranno un impatto duraturo? Cos’è possibile fare con questi dati?

L’utilizzo dei dati da parte delle aziende

Nelle scienze sociali vi sono due teorie: quelle micro (individuali) e quelle macro. Non si ha certezza di cosa vi sia in mezzo. Sappiamo, però, che prende il nome di “meso”, e si ritrovano i gruppi, le organizzazioni, le istituzioni, aziende, ONG, organizzazioni internazionali, governi locali e regionali, autorità di regolamentazione, banche centrali.

Rispetto al caso concreto, oggi negli Stati Uniti 120 milioni di dipendenti sono organizzati in sei milioni di aziende (secondo i dati pre-covid).

Ci sono molte teorie su come possono essere definite queste sei milioni di aziende:

  • Massimizzazione del profitto: impresa gestita da un ‘dittatore onnisciente’;
  • Costi di transazione: impresa come isola in un mare di mercati;
  • Principal-agent: l’impresa è un nesso di contratti (c.d. nexus of contracts);
  • Formazione di una coalizione: l’impresa come partizione ottimale;
  • Diritto ed economia: l’impresa ha potere di mercato;
  • Rete: l’impresa come rete di comunicazione;
  • Produzione di gruppo: l’impresa ha rendimenti di scala crescenti;
  • Organizzativo: l’impresa come insieme di regole operative;
  • Evolutivo: l’impresa è adattabile e alla ricerca di profitto.

Tuttavia, queste teorie non sono rilevanti per i dati micro, bensì sono inadeguate e poco all’avanguardia.

Si potrebbe immaginare di avere solo sei organizzazioni nel Paese in cui siamo nati, l’Italia, ad esempio. Dovrebbe esserci una grande cooperativa agricola a cui tutti gli agricoltori devono partecipare, una sola banca, un solo governo, un solo rivenditore online (come Amazon, ad esempio), un solo raccoglitore di risorse naturali. Il risultato? l’economia sembrerebbe molto più semplice (sia per gli economisti, sia per i cultori delle scienze sociali).

Quasi tutta la produzione e l’innovazione è dovuta alle imprese mentre gli Stati producono molto poco. La maggior parte dei lavoratori sono dipendenti delle imprese; la maggior parte del valore dei portafogli di investimento è legata ad esse.

Le imprese attraverso il costante sviluppo tecnologico e la quantità di dati cui entrano in possesso si avvicinano sempre più alla definizione di ‘dynamic firm’. Le conseguenze più immediate sono che:

  • I microdati forniscono molti nuovi modelli da studiare e spiegare. Ci sono tonnellate e tonnellate di modelli nei dati microscopici;
  • Le teorie convenzionali non vincolano i microdati;
  • Modello con produzione di gruppo e rendimenti crescenti (1. flusso costante (turbolenza) a livello di dipendenti. 2. Distribuzioni stazionarie a livello aggregato);

Rispetto a ciò, Paul Krugman, premio Nobel per l’economia, ha elaborato una nuova teoria economica, rispetto alla quale, però, a livello macroscopico ed aggregato, si ottiene una distribuzione stazionaria circa le nozioni teoriche convenzionali di equilibrio finanziario o di equilibrio degli agenti.

L’economista americano si è basato sul commercio attraverso la struttura industriale. In questi ultimi tempi si parla della nuova teoria del commercio, dove la dinamica delle imprese sarà parte integrante di molti aspetti diversi dell’economia, ed i dati microscopici sulle imprese svolgeranno un ruolo importante nel futuro.

Da un punto di vista economico, l’immediata conseguenza è che le aziende produttrici di dati sanno come modellare ogni utente sulla base di microdati specifici per l’individuo, ovvero, hanno la possibilità di migliorare l’esperienza dell’utente.

Tuttavia, ciò che fanno non è trasparente, ed è anche molto rischioso a livello sociale/comportamentale: ogni volta che un utente si connette a una delle piattaforme di social media viene creato un modello sostanziale di ciò che ha visualizzato in precedenza.

Inoltre, è presumibile che vi saranno altre aree delle scienze sociali in cui si assisterà ad un diluvio di dati, come quella del FinTech (tecnofinanza) o del PropTech (settore immobiliare); l’utilizzo dei dati è diventato la base per i business dell’attuale millennio, dove le companies cercano di sfruttarli al fine di ottenere un vantaggio circa l’economie di scala. Da un punto di vista macro, invece, è probabile che si passerà dai dati aggregati ai microdati, così come dalle previsioni al now-casting.

Ed infine, anche da un punto di vista politico bisognerebbe chiedersi: quanto tempo ci vorrà prima che le “vecchie mani” vengano sostituite dalle machine learning?

1 Star2 Stars3 Stars4 Stars5 Stars (6 votes, average: 5,00 out of 5)
Loading...

Lascia un commento

Your email address will not be published.