Premessa. Ho un sistema S che ho modellizzato nelle sue variabili più significative e i cui stati interni so descrivere qualitativamente, categorizzare (ref clustering), e possibilmente misurare. Ho quindi dei KPI pronti sul sistema che sto cercando di modulare e ho qualche grado di agency sullo stesso. A questo punto si tratta di costruire da zero o di esplorare layer by layer un grafo G, grafo che serve a descrivere le mie possibili interazioni su S e come queste vanno a modulare lo stato di S stesso, ossia si tratta di decidere la prossima mossa da una bag enumerabile di scelte possibili.
Che si tratti di esplorare un sistema trasparente o una blackbox, in ogni caso ora ho a che fare con G. Esplorare G ha dei costi, che in astratto sono vincoli computazionali di tempo e di memoria, e in concreto sono costi di traversamento di un arco, ossia costi reali dello svolgimento del tentativo vero e proprio di modulare il sistema e spingere in avanti la frontiera di conoscenza di G di S. Con questo intendo che per ogni tentativo pratico di attenuare un problema reale che decido di percorrere devo inserire in budget dei tempi di percorrenza e dei costi totali dell’array di azioni che decido di compiere. L’informatica teorica rileva due tecniche principali di ricerca su G ossia di traversamento di G stesso, che sono la BFS breadth first search e la DFS depth first search. Nel pratico si tratta di decidere a che punto voglio smettere di considerare le conseguenze delle conseguenze delle mie azioni nel momento di scegliere la prima azione da compiere su S.
Qui entrano in gioco tre concetti nuovi: euristiche, vincoli V sul processo decisionale, e ID iterative deepening. Usciamo di nuovo dall’astrazione, nella realtà aziendale V è il set di limitazioni che la competizione di mercato impone ai processi decisionali, ossia spesso ho tempo limitato per prendere decisioni significative in contesti più vicini ad una blackbox che alla trasparenza. Ed è proprio nel contesto di questi limiti pratici che va introdotto il concetto di euristica, ossia di quel set di conoscenze empiriche ed esperienziali che mi fa dire basta, smettiamo di approfondire la frontiera di conoscenza di G e procediamo a scegliere dalla bag parziale di scelte possibili che abbiamo enumerato. Ossia accetto la non perfezione delle mie conoscenze su S ma rilevo che le scelte che ora ritengo plausibili mi permettono di modulare S stesso tenendolo entro degli hard limits esternamente imposti, e rilevo anche che traversando parzialmente segmenti di G non sono escalati alla mia attenzione dei problemi noti, cioè tutto sommato ho delle alternative sufficientemente valide. Posso investire altre risorse e provare ulteriori ottimizzazioni tramite ID, ossia preservando in cache i nodi già calcolati di G e procedendo nel deepening in maniera prudente e iterativa finché ho tempo per farlo.
A questo punto si reitera l’intero processo con maggiori informazioni a disposizione, derivate dal rilievo dei risultati parziali P che ho ottenuto. Proprio qui sta lo svincolo tra competitività e lagging sistematico. Per elaborare entro in metafora: stiamo pilotando visual, senza strumentazione avanzata. Se imposto un assetto (ref testo una decisione su S), aspetto quanto basta per evitare di osservare soltanto rumore (ref euristiche), osservo l’esito a breve termine delle mie azioni: sto perdendo quota? sto virando? sto imbardando? In questo contesto è semplice fare le valutazioni perché siamo in uno spazio di stati del sistema relativamente limitato. Ma generalizzando, envelope protection si fa a partire dalla derivata prima degli indicatori, senza aspettare i grandi delta. Se un assetto troppo alto mi fa rallentare lo correggo molto prima di stallare, perché stallando perdo quota velocemente e non necessariamente me lo posso permettere. Se ancora non mi sono allontanato dai punti critici non mi posso permettere di osservare le macrovariazioni per agire in maniera correttiva su S. Più l’indicatore sintetico I è chirurgicamente allineato ai miei obiettivi immediati più posso permettermi di fidarmi della derivata prima su I, ossia mi posso permettere di non dare tempo al tempo tanto più quanto meglio imposto un sistema di indicatori ortogonali su S, e la sistematicità del restare competitivi sta proprio nel non dare tempo al tempo. P e I spawnano un nuovo sistema S’ su cui ricominciare la modulazione.
