Menu Principale

 Home-Page
 Osservatorio
 Epistemologia della Rete
 Culture Digitali
 Segnalazioni
 Risorse

Accedi

Visitatori collegati

Registrati: Non registrati: 1

Cerca nel blog


Archivio

Blog-rolling

Syndicate

W3C Validator

Valid XHTML 1.0!

Valid CSS!

Ipotesi di lavoro per un nuovo “paradigma informatico”

I limiti dell’attuale paradigma informatico

Mark Pesce (inventore del VRML) in un recente articolo ha sostenuto che oramai l’informatica si basa su modelli di software obsoleti. La prima domanda che viene in mente è: ma come è possibile? non vi sono sempre più programmi, sempre nuovi sistemi operativi, sempre più applicazioni?
Ad un primo sguardo potrebbe sembrare che sia così; poi volendo approfondire la questione ci rendiamo conto che i principali applicativi software attuali hanno assunto la forma sostanziale ritroviamo già alla fine degli anni sessanta. I programmi di videoscrittura, i fogli di calcolo, la struttura dei database relazionali sono strutture di programmi figli di un felice incontro tra un portato linguistico strutturalista ed alcune menti di prim’ordine che vollero definire il massimo delle potenzialità per i calcolatori di quel periodo. Per comprendere l’ordine di grandezza del salto tecnologico compiuto dagli anni sessanta ad oggi (quando la parte software è rimasta sostanzialmente invariata) potremmo dire che siamo nell’ordine di potenze di calcolo di decine di migliaia di volte superiori ai computer dell’epoca. Basti pensare che il computer che mandò sulla luna gli astronauti era molto meno potente e veloce della più banale calcolatrice per le quattro operazioni elementari oggi in commercio. Dai progetti di sviluppo di software sono nati e poi minimamente evoluti i programmi che oggi conosciamo: “word”, “excel” “access” etc….
Possiamo dire che la nascita di Internet/ArpaNet (1968) e di Unix (inizi anni ’70) costituiscano gli ultimi bagliori di creatività informatica. Solo l’invenzione dell’ “html” (metalinguaggio descrittivo delle pagine internet e creatore del concetto dell’iperlink) ha costituito un portato innovativo nell’ambito informatico.
Nonostante tutto: Il paradigma di fondo è rimasto invariato!
Da allora, il miglioramento del software è stato una gara ad ottimizzare i prodotti e sfruttare in maniera più o meno valida la velocità di calcolo dei nuovi computer aggiungendo funzionalità minime. Volendo usare una metafora è come se ci fosse un corpo (hardware) di un adolescente in piena crescita con la capacità mentale (software) di un bambino di due anni.

Perché si è arrivati a tutto questo?

Sicuramente per ragioni economiche e di mercato in quanto la ricerca di base non frutta nel breve periodo e la concorrenza sempre più accanita lascia poco spazio a tentativi che potrebbero essere infruttuosi, ma soprattutto perché ci si è messi sempre nell’ambito di un solo paradigma: la macchina di Turing. L’approccio teorico della macchina di Turing è risultato geniale per l’epoca (intorno agli anni ’40), poiché ha dato un nuovo impulso allo sviluppo della teoria dei calcolatori distaccando il dominio descrittivo e di pertinenza e rendendolo totalmente autonomo dalla materia trattata. Con una macchina (teorica e virtuale, quindi slegata dai concetti di prestazione e velocità) di Turing rispettandone i parametri si può calcolare tutto il calcolabile senza doversi confrontare con la realtà. Paradossalmente se il contenuto inserito autoreferenzialmente è esatto il risultato è sempre e necessariamente coerente con le strutture logiche di inserimento dati. In tale approccio l’errore è dovuto sempre e comunque a problemi di calcolabilità e computabilità (cioè alla definizione e creazione degli algoritmi di calcolo). La domanda seguente diventa quindi: perché per quanti sforzi si facciano nella creazione di algoritmi fedeli all’impostazione della macchina di Turing ci sono problemi teoricamente risolvibili ma che praticamente non si riescono a risolvere?
L’esempio più evidente che chiunque navighi su internet ha avuto modo di constatare è l’incongruità dei risultati di una ricerca inserendo parole chiavi su un motore di ricerca (Google , Yahoo, Msn Search etc..). Essi, in un gergo tecnico mutuato dal campo medico, sono spesso pieni di “Falsi Positivi” o “Falsi Negativi” cioè risultati non attesi o non corrispondenti alle aspettative. Per quanto si affinino gli algoritmi di ricerca delle informazioni, ed anche introducendo criteri di schematizzazione (i cosiddetti domini “Ontologici” e “Semantici” delle parole) il problema rimane ineludibile teoricamente e sostanzialmente. Lo stesso governo americano (spesso come accaduto per internet primo finanziatore di ricerca) in alcuni tentativi di voler applicare dei filtri di ricerca ad alcune parole, ad esempio di tipo sessuale, si è reso conto in momenti successivi di dover escludere dalla ricerca migliaia di documenti presenti nello stesso archivio del Congresso per le proposte di legge in materia sessuale. In questo caso come in moltissimi analoghi non si trattava di cercare un qualcosa ma, operazione che risulta già più semplice, solo di escludere dei termini nel contesto di ricerca.
La risposta degli informatici teorici, come accennato, è stata la creazione di Ontologie (sic!) di significato, intendendo con questo termine dei macroinsiemi di contesto a cui vengono associati dei termini, per determinare i cosiddetti alberi di conoscenza. Il passaggio successivo sarebbe costituito dai cosiddetti Web semantici, cioè una serie di “decrittori” che consentono di contestualizzare i termini ed i significati e quindi migliorare la comprensione del testo e soprattutto renderlo significativo rispetto agli argomenti presentati.
Il problema rimane quindi sempre e comunque all’interno del paradigma di Turing: se ci sono delle cose che non funzionano esse sono sempre dovute alla mancanza di affinamento nella creazione degli algoritmi di calcolo oppure al voler calcolare l’incalcolabile. In realtà il progetto di Web Ontologico e Semantico già teoricamente definito da almeno dieci anni si sta rivelando complesso e sostanzialmente ingestibile: il tempo di definizione e gestione dei decrittori per il mondo internet supera il tempo di creazione dei contenuti stessi. Negli studi di ricerca linguistica computazionale avanzata ad esempio, per la definizione del contesto di uso di termini per la letteratura italiana del 1200, possiamo vedere che vi sono progetti di ricerca di durata almeno decennale con l’impiego di decine di ricercatori.
Immaginiamo di voler imbrigliare in queste maglie logiche tutti i termini della lingua italiana e definirne i contesti d’uso moderni, in tutti i campi del sapere, poi moltiplichiamolo per tutte le lingue, cercando i contesti di applicazione e possiamo immaginare immediatamente gli enormi e insuperabili problemi di catalogazione.
Lo stesso tipo di problema si evidenzia anche per altri contesti: il riconoscimento del parlato da parte del computer, dei software di OCR, ma soprattutto nell’interfaccia uomo macchina dove vi è sempre la necessità di apprendere quale logica di funzionamento utilizza il computer ed adeguarsi ad essa.
Per risolvere questi problemi si pone l’acceleratore sulla velocità di calcolo hardware e sulla capacità associativa dei software, rimanendo tuttavia nell’ambito del paradigma di Turing.

La felice stagione teorica degli anni sessanta oltre il notevole contributo di Turing, ha avuto un’altra gamba per muoversi e svilupparsi: la ricerca Chomskyana sul linguaggio. Seguendo questo approccio teorico, se i linguaggi si basano su elementi comuni razionali e lo sviluppo degli algoritmi può descrivere praticamente ogni cosa (nell’ambito dei limiti di computazionalità definiti e dimostrati in maniera matematica), non sarebbe rimasto che il doverne crearne sempre più di nuovi ed efficienti che insieme alle sempre maggiori potenze di calcolo non avrebbero potuto fallire nella missione di informatizzazione del mondo.
Purtroppo come tutti i paradigmi anche questo di Turing-Chomsky sta cominciando a mostrare i suoi punti di debolezza. L’approccio per Ontologie ha mostrato i suoi limiti teorici e soprattutto pratici, tant’è che gli algoritmi di calcolo dei motori di ricerca più efficaci (Google) si basano su concetti di “Ranking” ripetitività e “brute force” (forza bruta) di calcolabilità.
La macchina di Turing, anch’essa, si basa su concetti di calcolo computazionale definiti a “tempo discreto”, cioè il tempo di passaggio da uno stato di lettura e/o scrittura ad un altro deve avvenire sempre ad un tempo differente. Oggi i moderni calcolatori quantici (con il relativo concetto di Qbit –Quantum bit- e la sua matematizzazione) stanno andando oltre il concetto di calcolo sequenziale e parallelo per introdurre calcoli vettoriali che presuppongono nuovi algoritmi. E’ questa l’unica possibilità per avviare un vero rinascimento informatico che consenta di superare i problemi evidenziati in precedenza e avviare la nascita di realmente nuove generazioni di software dato che l’attuale si avvia alla soglia dei cinquanta anni in un settore in piena esplosione tecnologica. Come per il binomio teorico Turing –Chomsky che ha fatto da guida alla progettazione dei tools di sviluppo degli anni sessanta e di teoria generale dell’approccio informatico, così oggi manca una riflessione umanistica che consenta lo sviluppo di nuove ipotesi teorico per lo sviluppo dei software. La creazione dei principi primi teorici per la soluzione dei problemi del paradigma e la creazione, quindi, di nuovi paradigmi necessita di riflessioni teoriche che esulano dal campo dell’informatica pura per coinvolgere matematici, statistici, linguisti, psicologi, logici, filosofi. Una ipotesi di ricerca in questo campo dovrebbe riuscire a considerare modelli di visione del mondo che esulano dall’informatica, anzi che avviino il processo inverso: oggi che se ne conoscono potenzialità e i limiti (ne è stato tracciato un primo paradigma) si dovrebbe adattare l’informatica di base al pensare umano e non viceversa. Il pensiero associativo, le capacità di sintesi e di riconoscimento di una realtà non codificata e del suo contesto non sarebbero lontani seguendo nuove strade di sviluppo del software.

Le ipotesi di attività.

La possibilità di coinvolgere umanisti che si occupino di informatica pare sempre più scarsa:
informatica e scienze umane sono state per molto tempo due discipline completamente distanti e che non hanno comunicato realmente tra loro.
Nella consapevolezza che sia necessario una riflessione totale sulla necessità di rendere l’informatica uno strumento, come ad esempio il motore a vapore nell’economia ottocentesca utilizzato nelle svariate applicazioni aperte alla creatività degli utilizzatori e per i più svariati fini, potremmo pensare un circolo virtuoso nel rapporto tra utilizzatori e in futuro “umanisti-progettisti-architetti dei sistemi informatici” rispetto ai “tecnici ingegneri dei processi”. Lo scambio informativo prevede la condivisione della conoscenza in ambito informatico, ma anche la progettazione congiunta degli applicativi rispetto alle esigenze.

Spero che sia sentito il bisogno di confrontarsi su questi temi.

Share!
  • Facebook
  • LinkedIn

1 commento

  1. gianluca baccanico ha detto:

    Il bisogno è più che sentito, è piuttosto un’urgenza, o come si dice oggi un’emergenza.

    ma il problema è ben oltre le forze dei singoli ed ha praticamente raggiunto i limiti della forza propulsiva originaria. Chi si confronta con la logica di rete oggi è chi non ha avuto molti problemi ad affrontare dei cambiamenti di quadro mentale, mentre chi ha resistito fino ad oggi alla ‘moda’ telematica’ probabilmente vi si avvicinerà sempre e comunque turandosi il naso.

    Lo stallo è questo a mio avviso e non rende le cose più facili. Oltre all’impegno dei singoli e alla possibilità di interconnessione tra ‘mondi’ scientifici diversi c è oggi da lottare per la stessa affermazione delle logiche telematiche.

    Quello che negli stati uniti sta avvenendo, con il fallimento dei vari google, yahoo e microsoft, per la prima volta insieme politicamente. La fine di quella che hanno chiamato ‘net neutrality’ e cioé la vittoria dei monopoli delle telecomunicazioni per gestire i flussi informativi sulla base della provenienza invece che della pertinenza, favorendo quindi i propri contenuti su quelli dei provider concorrenti. E l’aggressiva campagna di lobby organizzata in canada per imporre un copyright da ‘inquisizione’.

    Sono tutti segnali che il vecchio ‘brainframe alfabetico’ non mollerà la presa tanto facilmente, perché rappresenta valori su cui si fondano ancora le economie e le società del pianeta e perché è mancata in questi anni un’opera di traduzione da una logica ad un’altra. In realtà la nuova logica si andava scoprendo via via ed era pertanto difficile tradurre mentre la si imparava.

    ad ogni modo la strada per adattarsi all’uomo che usa queste macchine è ancora piena di ostacoli. bisognerà prima capire che uomo ne sta uscendo fuori, quali facoltà si stiano risvegliando ed estendendo, e quanto sarà violenta la caduta dei vecchi modelli.

    è necessario si passare ad una seconda fase dell’ermeneutica digitale, ma ricordiamoci che non si è ancora imposta neanche la prima come modello socio politico in nessuna parte del mondo.

Ultimi Commenti

arrow Rosanna De Rosa (Con Emma, innoviamo la didattica e facciamo crescere l’Italia in Europa): Sarebbe bello se qualche insegnante di cucina, magari di qualche buon istituto alberghiero, si cimentasse ...
arrow Rosanna De Rosa (Con Emma, innoviamo la didattica e facciamo crescere l’Italia in Europa): Il progetto prevede il lancio di ulteriori MOOC a febbraio. Alcuni davvero professionalizzanti e molto ...
arrow paolo (Con Emma, innoviamo la didattica e facciamo crescere l’Italia in Europa): Ce ne saranno anche altri in futuro, o sono solo questi? ...

Da non perdere

arrow Berlusconi: operazione verità. Si salvi chi può
arrow Caterina va a votare
arrow Di quando la politica diviene un incubo
arrow Game Over
arrow I frames di queste elezioni
arrow Il calciomercato di plastica
arrow La politica delle bocce ferme
arrow La regionalizzazione della ragione
arrow Le “parole in libertà” del Signor B.
arrow PoliticaOnline uno dei “Best of the Web for Social Science”
arrow Prodi, i media e la società italiana
arrow Quel pasticciaccio brutto del sistema elettorale campano
arrow Rivoluzioni silenziose
arrow The Anticipatory Campaign: una parabola
arrow Tutto ciò che non è formalmente illegale è legale…
arrow Un dibattito senza
arrow United 93: il primo film sull’11 settembre
arrow USA: turbolenta vigilia per il quinto anniversario dell’11/9
arrow “Non pensiamo all’elefante”

Newsletter

Iscriviti alla newsletter di Politicaonline.it.

E-mail

Perché questo sito?

La cultura politica odierna è affetta da un virus malevolo: mancanza di dibattito e partecipazione. Il processo democratico si è (meglio: è stato) sostanzialmente ridotto a dare deleghe in bianco, a tapparsi il naso nell'urna elettorale, o ancor peggio a far finta di nulla.
In maniera indipendente da strutture o entità di qualsiasi tipo, questo spazio vuole sfruttare l'interazione del blog per avviare un esperimento di comunicazione a più voci. Una sorta di finestra aperta sulle potenzialità odierne insite nella riappropriazione del discorso culturale politico, dentro e fuori internet - onde impedire l'ulteriore propagazione di un virus che ci ha già strappato buona parte del processo democratico.

indent Editorial Board

indent Collaboratori

Per collaborare

Proposte (serie) di collaborazione vanno inoltrate alla redazione.

Copyright e licenze

I testi di questo sito sono responsabilità e copyright dei rispettivi autori e sono coperti dalla licenza Creative Commons Attribution - NoDerivs - NonCommercial

Creative Commons Logo