Prologo
Mi sono laureato in Fisica, indirizzo nucleare, presso l'Università di
Padova nel giugno 1978 e un anno dopo sono entrato nel mondo della scuola. Dopo
la laurea ho iniziato a interessarmi di Informatica, dato che all'Università
ebbi solamente un'infarinatura di Fortran. Fortunatamente, infatti, qualche
docente illuminato aveva capito che almeno i rudimenti del calcolo
automatico un aspirante fisico doveva pur possederli. Il centro di
calcolo universitario era off limits per gli studenti. D'altra parte allora la
programmazione era di tipo batch: si scrivevano i programmi, si perforavano le
schede e si consegnava il pacchetto all'amministratore del centro, il quale
mandava in esecuzione i programmi quand'era possibile, rispettando varie
priorità. Dopo qualche giorno consegnava gli stampati con i risultati. Se
c'era un errore, e quasi sempre c'era, bisognava correggerlo, cambiare la o le
schede e ripetere tutta la procedura. Figuriamoci se ci fossero anche stati gli
studenti tra i piedi.

Inizio: i favolosi anni 80
Ho iniziato, dunque, come molti della mia generazione, programmando il
leggendario "Commodore 64", che veniva in quel
periodo commercializzato in Italia.
Quel '64' che compariva nel nome, stava esattamente per 64 KB ( 64 x 8 x 1024 =
524288 Bit) di memoria RAM, nemmeno tutta disponibile, essendo in parte
occupata dal sistema operativo.
Oggi, per capirci, la capacità di una RAM si misura, come ordine di grandezza,
in GB (1 GigaByte = 109 byte o più correttamente 10243
= 230 byte).
Il costo era spropositato. Nel dicembre 1982 pagai il C-64
1.200.000 lire ( circa 1850 attuali, considerando la svalutazione).
Tuttavia con quei pochi e costosi kilobyte facevamo miracoli, almeno per
quel tempo: giochi, applicazioni, programmi, complessi e super-ottimizzati, non
potendo sprecare inutilmente nemmeno un bit di memoria.
In quegli anni di grande entusiasmo per la nuova tecnologia tenni
alcuni 'pionieristici' corsi di informatica per il personale della scuola.
Sto parlando dell'inizio degli anni '80 del secolo scorso, e l'informatica a
scuola era veramente cosa da pionieri.
L'elaboratore elettronico appariva ai più una specie di scatola
magica. Quasi la stessa sensazione che un po' d'anni prima provai mettendo
le mani, in "Laboratorio di Fisica 1", su una delle prime
calcolatrici elettroniche in circolazione, l'HP-45, saldamente
inchiavardata alla parete data la preziosità (395 $, nel 1974, 250000 lire,
equivalenti a 385 attuali).
I calcoli si eseguivano nella efficiente, ma del tutto innaturale, notazione
polacca inversa (RPN). Ad esempio per eseguire 5 x 3 = , si doveva
battere la sequenza:
,
al che il display dava il risultato, 15 (non esisteva il tasto =). Si può
provare, cliccando sull'immagine dell'HP-45, con una simulazione (però
della progenitrice HP-35) di Neil Fraser, realizzata per HP Museum.
Successivamente, mentre collaboravo con una delle prime associazioni di
professori (che con incredibile fantasia battezzammo "Informatica &
Didattica") convinti della necessità di introdurre l'informatica nella
scuola, ho avuto a che fare con l'Olivetti M20 (uno dei pochi personal di quel periodo dotato di grafica ad 'alta' risoluzione
e istruzioni per gestirla: a quel tempo Olivetti era all'avanguardia nella
ricerca e sviluppo in ambito personal computing), poi con PC IBM (il
peggiore di tutti, credo) e quindi con il buon M24
Olivetti.
Stavo allora lavorando, con un collega e amico, ad un programma per
la risoluzione dei circuiti elettrici: si costruiva il circuito,
utilizzando simboli grafici per i componenti (nodi, conduttori, generatori,
resistenza, induttanza, condensatore). Il programma in gwBasic ne
riconosceva la topologia ed eseguiva il calcolo di correnti e tensioni. Fu il
primo progetto di una certa complessità che affrontammo e che ci permise di
imparare un sacco di cose sulla programmazione e i suoi trucchi.
Fu poi la volta del potente Apple Macintosh
Plus dotato di uno straordinario sistema operativo a finestre (poi
largamente scopiazzato da altri) con il quale si interagiva, oltre che con la
tastiera, attraverso un rivoluzionario dispositivo di puntamento: il mouse
Pascal, l'evoluzione
Si cominciava a parlare di programmazione strutturata e di Pascal,
pensando di introdurlo nella scuola proprio per le sue caratteristiche di
rigorosità, di tipizzazione forte dei dati (che vanno preventivamente
dichiarati e non è possibile passare da un tipo all'altro con una semplice
assegnazione, come ad esempio in Basic), di modularità grazie all'uso delle
procedure.
Era un altro mondo rispetto al Basic: dalla "programmazione
spaghetti", infarcita di goto e di variabili create in qualsiasi momento,
all'ordine svizzero imposto da Niklaus Wirth.
Non parliamo poi della velocità. Difficile forse capire oggi cosa significava
disporre di un buon compilatore. Ora la potenza di calcolo di cui
disponiamo è tale da rendere abbastanza accettabile, almeno per usi normali,
anche le prestazioni di un programma interpretato, anche se un ritardo di
qualche secondo nella risposta ci può far giudicare come lento o molto lento il
programma. Allora l'attesa poteva essere anche di alcuni minuti!
Proprio in quel periodo la Borland metteva sul mercato, a partire dal 1983, un
velocissimo complilatore per MS/DOS, a prezzo contenuto: il Turbo Pascal.
Il successo fu enorme: rapidamente divenne il compilatore più
popolare in assoluto e fu adottato in molte strutture formative universitarie
per insegnare la programmazione strutturata.
Nella versione 5.5 (1989) Borland introduceva anche elementi di programmazione orientata
agli oggetti. I programmi andavano pensati non più come pura sequenza di
istruzioni, ma come oggetti interagenti tra loro.
Gli oggetti sono concretizzazioni di Classi, sono cioè istanze di una classe,
possiedono proprietà (i dati dell'oggetto) e capacità di agire ( i metodi
dell'oggetto).
La Classe è una struttura di dati astratta che definisce le proprietà
generali (i dati) di ogni oggetto che le appartiene e ciò che
ognuno di essi può fare (i metodi). Esempio: la classe Automobile
definisce il concetto di automobile (cosa ci fa riconoscere che ciò che abbiamo
davanti è un'automobile?) , "Fiat 500" e "Ferrari F430"
sono concretizzazioni, istanze di Automobile.
Tutto ciò era decisamente affascinante anche se un po' difficile da
capire per chi era abituato a programmare alla vecchia maniera. Il manualetto
sulla programmazione orientata
agli oggetti che accompagnava il compilatore era però piuttosto chiaro e
aiutava molto. Tanto che ancora oggi ritengo possa essere utile per chi
muove i primi passi nel mondo della programmazione. La complessità dei software
attuali impone necessariamente la modalità object oriented e quindi tutti i
moderni linguaggi la adottano: Delphi, C++, Java, ecc.
Nel frattempo l'hardware si evolveva: dall'intel 80286 della prima metà degli
'80, all'innovativo 80386, equipaggiato con il primo processore Intel a 32
bit, che mi costò un occhio della testa, anche perchè lo volli di
marca (Intercomp x386) e completo di coprocessore matematico 80387, richiesto
quest'ultimo da applicazioni particolarmente impegnative dal punto di vista
dell'elaborazione (ad esempio Autocad).
Un progetto impegnativo
Dopo aver acquisito buona padronanza del Pascal, mi lanciai in
un progetto ambizioso: creare una serie di simulazioni di Fisica che rendessero
più agevole l'apprendimento dell'elettromagnetismo.
Dovevo immaginare simulazioni didatticamente efficaci e con buone possibilità
di interazione. Quel che c'era in giro non era un granchè: poca interattività e
orrenda grafica CGA a 320 x 200 punti, 4 colori, mentre con le nuove schede EGA
e VGA si poteva finalmente lavorare alla risoluzione di 640 x 480, 16
colori.
Decisi di partire dalla legge di Coulomb: pensai di simulare una bilancia (1) a due piatti
su uno dei quali vi era una carica elettrica, mentre
un'altra carica poteva essere avvicinata o allontanata. Un regolo
permetteva di misurare le distanze. Modificando il valore dei pesi posti
sull'altro piatto si doveva equilibrare la bilancia ricavando così l'intensità
della forza elettrostatica a varie distanze e per diversi valori delle cariche.
Dovevo realizzare tutto da zero: la grafica, il motore fisico, necessario per
rendere verosimili i movimenti dei piatti e attendibili i risultati,
l'animazione. Volevo una simulazione sufficientemente realistica e quindi era
necessario implementare correttamente le soluzioni delle equazioni del moto,
per la quali utilizzai il metodo di Eulero. C'era poi il problema
dell'elaborazione dei dati.
L'idea centrale era che lo studente, decisa la strategia da adottare (quali
parametri far variare e come) e ricavata una serie di dati, si ingegnasse,
attraverso l'elaborazione di questi e una successiva rappresentazione
grafica, a scoprire la legge di Coulomb.
Pensai quindi di integrare un foglio di calcolo, in stile Visicalc
o Lotus123, ma la cosa mi sembrava troppo complicata e l'idea
francamente un po' troppo audace per le mie possibilità. Però, se vi
fossi riuscito, avrei ottenuto l'importante risultato di aver creato un
ambiente didattico autosufficiente: simulazione ed elaborazione senza mai
uscire dal programma. Una bella sfida! Decisi di provarci, mettendo anche
all'opera qualcuno dei concetti di programmazione orientata agli oggetti, che
stavo allora studiando. Creai così la Classe 'cella' con dati e
metodi. Era poi necessario realizzare la tabella con la massima modularità, in
modo da poter riutilizzare il software nelle simulazioni successive, senza
ulteriori modifiche.
Le celle potevano accettare testo, valori numerici e formule di calcolo diretto
o tra i contenuti delle celle. In vista di futuri sviluppi, avevo
implementato alcune funzioni: elevamento a potenza, radice quadrata, funzioni
trigonometriche (sin, cos,arctan), logaritmo naturale ed esponenziale.
Ne uscì una cosa piuttosto primitiva, ma ampiamente sufficiente per lo
scopo.
Era la volta della rappresentazione grafica.
Creare procedure in grado di rappresentare graficamente funzioni date
non era una cosa particolarmente difficile. Tuttavia era
didatticamente importante che lo studente scrivesse direttamente la forma
della funzione matematica, senza avere a disposizione oggetti predefiniti. Per
questo motivo dovevano essere rappresentabili virtualmente tutte le funzioni
polinomiali, oltre a quelle trigonometriche, al logaritmo e all'esponenziale.
Esse dovevano essere inserite attraverso un campo di testo, il che rendeva
necessaria la realizzazione di un parser a più livelli, che fosse in grado di
analizzare un ingresso, ad esempio, del tipo f(x)=1/(x^3
- 3*x^2+1). Era poi necessario 'saltare' i punti singolari del
dominio per evitare il famigerato "Division by zero
Error", e trovare un ragionevole compromesso tra qualità della rappresentazione
e tempo di esecuzione (i primi tentativi erano alquanto disperanti da questo
punto di vista). Francamente furono queste le cose che trovai
più complicate. Lavorai duramente e alla fine ebbi la mia bella
simulazione funzionante. Devo dire che funzionava pure bene.
Ora si trattava di capire cosa farne di tutto quel lavoro.
Realizzai un dimostrativo e lo inviai ad alcune case editrici, che, pur
apprezzando, risposero negativamente (forse anche per precedenti infruttuosi
tentativi). Una sola, l'editrice La Scuola di Brescia, invece della
consueta risposta scritta, mi fece chiamare da un funzionario, il
quale mi manifestò il dispiacere di non poter pubblicare un lavoro simile,
data la politica contingente della casa editrice. Avrebbero comunque voluto
utilizzare le mie competenze proponendomi di scrivere alcuni articoli per una
loro prestigiosa rivista, 'Nuova
Secondaria', cosa che poi feci.
Leggendo un famoso mensile di informatica del tempo, MCmicrocomputer, trovai un
annuncio con il quale una software house di Bologna, la Simulmondo
srl, allora nota produttrice di video games, cercava collaborazioni per
altri progetti, anche di software didattico.
Mandai il dimostrativo e una descrizione dell'idea. Fui convocato a Bologna per
un colloquio da cui nacque un progetto che prevedeva la pubblicazione di
due volumi Fisica 2 e Fisica 3 sull'elettromagnetismo
(già esisteva Fisica1). Mi impegnai a fondo seguendo le stesse linee
guida. Le simulazioni dovevano però essere integrate da un testo ed una serie
si esercitazioni. Così mi inventai un testo su tre livelli collegati da 'parole
sensibili' (oggi li chiamerei link o collegamenti) che si scorrevano con i
tasti cursore (niente mouse ancora) accedendo ai diversi livelli testuali.
Senza saperlo (non ero ancora informato di ciò che stava succedendo al CERN di
Ginevra e degli studi precedenti) mi ero costruito una specie di elementare
ipertesto. Aggiunsi poi una serie di domande con controllo logico e sintattico
delle risposte. Terminai così, nel giro di alcuni mesi, il primo volume che fu
pubblicato nel 1992. Iniziai anche il lavoro successivo, che però, per
problemi interni a Simulmondo, non fu più terminato.
Per gli appassionati di vecchi software o i curiosi, questi programmi sono
disponibili e si possono liberamente scaricare da questo sito, nella sezione 'materiali'.
Intanto un nuovo interesse si profilava all'orizzonte.
Internet
Tra il 1989 e 1991 al CERN Tim Berners Lee e Robert Cailliau svilupparono un sistema
ipertestuale per facilitare il reperimento delle informazioni e la
collaborazione tra ricercatori, definendone sia il linguaggio di formattazione
testual e (HTML) che il protocollo di trasmissione (HTTP). Nel
1991, il 6 agosto, Tim Berners Lee pubblicò il primo sito web su Internet. Nel
1993 Il CERN rinunciò ai diritti di autore rendendo pubblico il world wide web
(www).
L'anno dopo, 1994, furono disponibili anche in Italia i primi servizi di
accesso pubblico alla rete Internet.
Nel 1996, armato di un modem da 14,4 kb/s, e di un browser Netscape
2.02, entrai a far parte di quel milione, poco più, poco meno, di internauti
italiani. L'emozione non fu poca nel veder apparire sullo schermo pagine
provenienti da tutto il pianeta. Ed anche il senso di disorientamento. Come
quando, davanti a un territorio sterminato, ci prepariamo al viaggio privi di
riferimenti, indicazioni o mappe. La salvezza veniva (viene) dai motori di
ricerca. A quel tempo i più gettonati erano Yahoo, che dava i risultati
migliori, dal momento che i siti venivano selezionati e catalogati da una
redazione di operatori umani, e Alta Vista, che vantava uno
dei database più cospicui della rete. Una delle cose che forse oggi potrebbe
maggiormente colpire è la velocità con cui venivano acquisite le pagine.
Facendo un confronto: l'immagine del commodore 64 in questa pagina pesa circa
60 KB. Ciò significa che viene codificata con 60 x 1024 x 8 = 491520 bit, con
il mio modem ci volevano 491520/14400 = 34 secondi, mezzo minuto, per
scaricarla. Oggi una connessione ADSL da 1 Mb/s = 1048576 bit/s, consente di
scaricare la stessa immagine in 491520/ 1048576 = 0,47 s, mezzo secondo! Questo
per avere un'idea dei progressi, ma anche di quanta pazienza ci voleva
allora...
La curiosità di capire come tutto ciò potesse funzionare era prepotente. E così
ricominciai a studiare, imparai l'html, costruivo pagine che peraltro mi
soddisfacevano poco a causa dell'assenza quasi totale di interattività.
Scopersi Javascript (conoscevo un po' di Java e di C: vi era una
qualche somiglianza sintattica e ciò mi aiutava) entrando così, pian piano, nel
mondo dello 'scripting'. Diventai bravino con le pagine web, tanto da poter
produrre qualche sito anche a livello professionale. Di fatto, per un periodo
mi diedi alla produzione di siti e alla consulenza.
C'erano tante cose da imparare, ma la gran parte delle conoscenze e delle
soluzioni ai problemi si trovavano nella rete. Questa era la cosa in un certo
senso rivoluzionaria: la rete offriva i mezzi per studiare, capire e
parlare di se stessa. Internet diventava poco a poco la più grande fonte di
informazioni e di collaborazione. Tanti siti, tante persone mettevano le loro
conoscenze e i loro lavori a disposizione di chiunque, senza nulla chiedere in
cambio. Straordinario. Mi dispiaceva solo di averlo scoperto tardi (esistevano
da tempo in Italia e nel mondo forme di collaborazione e comunicazione per via
telematica, ad esempio la rete 'Fidonet ' , a partire dal 1986 fino al cosiddetto 'Italian
crackdown' del 1994, e la rete Usenet).
Mi interessava sempre la possibilità di utilizzare queste
nuove risorse per la didattica e quindi organizzai un corso di HTML ed elementi
di Javascript per un gruppo di colleghi e qualche studente, che avrebbero
poi potuto utilizzare le conoscenze acquisite per scopi didattici.
Nel frattempo, la necessità di capire il funzionamento di Internet mi
stava portando verso lo studio delle reti di calcolatori. Si affacciavano
all'orizzonte nuovi termini: ethernet, TCP/IP, CSMA/CD, pacchetti,
router,ecc.
Lato server, ovvero passare dall'altra parte
Conoscevo ormai parecchie cose: riuscivo a progettare pagine web, sapevo
caricarle su un server e avevo anche un'idea di come tutto ciò funzionasse, ma
ciò che c'era dall'altra parte del doppino telefonico e che diligentemente
rispondeva alle richieste dell'utente (il browser) per ottenere questa o quella
pagina, restava vago e nebuloso. L'unico modo per capire fino in fondo come
veramente funzionassero le cose era quello di riuscire a metter le
mani su un server.
L'occasione mi fu offerta, tra il 1999 e il 2000, da una collaborazione con una
storica software house del posto, fondata e gestita dal classico
geniaccio, tanto vulcanico, quanto poco organizzato. Da anni lavorava su
sistemi Unix, su cui giravano gestionali dedicati che venivano manutenuti anche
da remoto attraverso connessioni telefoniche da modem a modem (non
ancora via Internet). Unimmo le forze e le rispettive competenze per
creare un sistema di commercio elettronico basato su Internet. Dovetti
imparare da zero a configurare un server, dappprima sotto Unix (usavamo SCO e
Caldera) per poi passare definitivamente a Linux. Fu questo il mio primo
approccio con l'open source, con Linux...e con il Perl.
Quest'ultimo è uno dei più ostici linguaggi di scripting lato server con
cui abbia avuto a che fare, ma in quel momento era quello che meglio ci
consentiva di interfacciare le pagine web (il front-end del sistema), con
il potente database relazionale che costituiva il motore dell'applicazione.
L'esperienza fu emozionante. Si lavorava gomito a gomito, spesso fino
a notte fonda, sostenuti anche dall' entusiasmo del responsabile
commerciale (poi divenuto mio grande amico), l'uno programmando il
database, l'altro trovando le soluzioni Perl necessarie: un problema, una
soluzione, un

problema, una
soluzione...quasi in tempo reale. Era davvero un rivivere il clima degli
inizi. Un po' alla volta vedevamo la creatura prendere forma: tra i primi in
Italia, eravamo riusciti a creare una piattaforma e-commerce, costruendo
completamente in proprio l'interfaccia web.
Il bagaglio di esperienze che ne trassi fu notevole, ma sentivo l'esigenza
di una sistemazione ed approfondimento delle conoscenze
che avevo via via acquisito.
Security manager
Nel 2000 si valutava che in Italia sarebbero mancate
oltre 50000 figure di esperti in tecnologia dell'informazione, capaci di
operare nel settore della cosiddetta net economy, dell'economia cioè che fa uso
delle risorse di rete. Per limitare il danno che questo 'skill shortage', come
veniva definito, avrebbe certamente prodotto, un pool di banche, guidate da
Sviluppo Italia, finanziò il progetto "Skillpass". L'obiettivo era di
formare gratuitamente e rendere operativi almeno 10000 esperti in un anno.
Si dovevano superare delle selezioni iniziali rispondendo ad un questionario
on-line e inviando un curriculum. Superai la selezione e scelsi il corso
di formazione per Security Manager, che sembrava maggiormente rispondere
alla mie esigenze. Le lezioni erano somministrate via Internet e in
video-conferenza da Global Knowledge, mentre i laboratori si svolgevano nella
sede di Milano. In pratica dovetti seguire un corso introduttivo alle
reti di calcolatori, il corso di preparazione alla certificazione Cisco CCNA ( Interconnecting Cisco Networking Devices), uno dei
tre corsi previsto per la CCNP (Building Cisco Remote Access
Networks, ora: Building Scalable Cisco Internetworks)e un corso
specialistico sulla gestione della sicurezza nelle reti Cisco. Lo studio
fu alquanto impegnativo, con verifiche intermedie a scadenze precise e
inderogabili. Nel 2001 sostenni con successo l'esame finale e finalmente mi
ritrovai con competenze sufficienti per gestire una rete di medie
dimensioni configurando router, switch e sistemi di autenticazione.![]()
Amministratore di rete a tempo perso (e costo zero)
Vi furono ovviamente ricadute sulla scuola. Insistetti per realizzare una rete
interna e alla fine la spuntai: la mia fu una delle prime scuole ad avere
un'aula cablata in rete ethernet con accesso condiviso ad Internet via ISDN.
Con l'avvento dell'ADSL, potei realizzare una mia idea. Attivai le procedure
per la registrazione di un dominio per la scuola.
Caricai su una vecchia macchina che riuscii faticosamente ad ottenere (le
risorse nella scuola sono sempre limitate), una distribuzione Red Hat Linux. Configurai Apache, Snort, Qmail. Installai
Rav Antivirus (2)
e realizzai un firewall con iptables. Disponevamo così di Web server,
servizi di posta elettronica con scansione antivirus e, se pur
rudimentale, di un controllo dei contenuti a costo praticamente nullo.
Non era il massimo per la sicurezza (tutti i servizi sulla stessa
macchina), ma le risorse disponibili non consentivano di più. Per diversi anni
poi mi assunsi l'onere aggiuntivo della funzione di amministratore di rete.
Dopo il 2003 sostituii qmail e RAV non più disponibile, con Postfix e Clamav.
Devo dire, con un certo orgoglio, che, oltre a garantire i servizi per
parecchi anni, il sistema resistette a diversi attacchi e in quel periodo non
vi fu mai alcuna infezione virale.
Networking Academy
Mi sono sempre chiesto perchè nel mondo della scuola sia così difficile
introdurre novità. Immaginavo che vi sarebbe stata una spinta verso l'utilizzo
delle nuove tecnologie nella didattica, ma non fu così. Certo si
cominciava a usare Internet per cercare informazioni, ma non se ne faceva un
uso propriamente didattico. Internet era però interessante anche per la
tecnologia in sè e per le opportunità di lavoro che poteva offrire. Con uno dei
pochi colleghi curioso dei nuovi mondi della conoscenza cominciai a cercare
qualcosa da proporre, nel tentativo di rinnovare gli obsoleti
curricula scolastici.
Scoprimmo che Cisco Systems, la multinazionale dei dispositivi di rete,
soprattutto router di fascia alta, aveva creato una piattaforma di e-learning
ed istituito quelle che venivano chiamate "Networking
Academy" (3):
ogni istituto scolastico o ente no-profit che lo desiderasse aveva
l'opportunità di divenire sede di una Networking Academy, previa
formazione e certificazione di almeno due istruttori presso una struttura
regionale. Stavamo cercando ansiosamente di vedere se in Italia esistesse
qualcosa del genere. Vi era il Cineca a Bologna e poco altro, ma i costi
richiesti per la formazione erano troppo elevati. Stavamo per abbandonare
quando scoprimmo che proprio la Regione Veneto si era costituita
come Cisco Regional Academy e cercava, quasi disperatamente, di
istituire quel paio di Networking Academy locali che mancavano per
raggiungere il numero minimo necessario alla partenza del progetto. In più,
fatto non trascurabile, la formazione sarebbe stata gratuita per le prime dieci
Local Academy. Contattammo subito i responsabili e riuscimmo ad inserirci
nell'elenco. L'ultimo scoglio fu superato quando convincemmo un sonnacchioso
Collegio Docenti ad approvare il progetto, in modo da inserirlo nel piano
dell'offerta formativa.
Seguì un altro impegnativo periodo di formazione con verifiche ed esami
continui. Conseguimmo infine la certificazione CCNA e quella di istruttore
CCAI (Certified Cisco Academy Instructor). Eravamo una delle otto scuole
delle regione a divenire Cisco Networking Academy, l'unica della provincia ed
iniziammo i nostri corsi di preparazione alla certificazione CCNA per studenti
interni ed esterni.
Cercammo di formare altri istruttori, ma purtroppo nessuno dei colleghi aderì
all'iniziativa, vuoi perchè i materiali di studio erano in lingua inglese, vuoi
perchè l'argomento pareva troppo difficile o semplicemente perchè non ritenuto
utile. Anche con gli studenti interni non fu semplice: riuscimmo a istituire
alcuni corsi pomeridiani e ad introdurre argomenti di networking
nei curricula, ma sempre con notevole difficoltà. La vera soddisfazione veniva
però dagli studenti esterni che, motivatissimi, affrontavano dopo il lavoro
le lezioni serali e del sabato mattina, provenendo anche da luoghi
distanti. La certificazione Cisco era ed è tuttora alquanto ambita. E'
unanimemente considerata seria e piuttosto difficile da ottenere. Molti, a
seguito dei nostri corsi, la conseguirono e a più d'uno ciò permise di ottenere
migliori condizioni di lavoro o addirittura di cambiare (in meglio) tipo di
impiego. Nonostante questi riscontri positivi, compresi gli introiti economici
che questa attività produceva (provenienti solo dagli esterni, ovviamente,
anche se tali costi erano quasi simbolici rispetto a quanto richiedevano le
agenzie esterne), la scuola non capì mai la potenzialità offerte da quei
progetti. Non se ne fece seriamente promotrice preferendo impegnare
energie in altre direzioni, meno orientate all'innovazione e a nuove proposte
didattiche.
I corsi per sistemisti
Le competenze acquisite in qualità di istruttore nei corsi Cisco, oltre al
background che già possedevo, mi consentì di progettare due corsi post-diploma,
finanziati dal Fondo Sociale Europeo, in collaborazione con un ente di
formazione che faceva riferimento all'Associazione degli Industriali. Si
trattava di corsi di 500 ore di teoria e 300 di stage presso aziende
del settore (tipologia esatta: "formazione post secondaria rivolta a
diplomati/laureati in cerca di occupazione") che miravano a formare una
figura professionale di "Sistemista ed amministratore di rete" (2003)
e di "Sistemista addetto alla sicurezza informatica (2005)".
Questi progetti, piuttosto apprezzati, mi diedero notevole soddisfazione ed è
motivo di personale orgoglio il fatto che essi permisero a molti
giovani di inserirsi con successo nel mondo del lavoro nell'ambito
dell'Information Technology.
Epilogo
Al momento di chiudere questa
finestra sul passato prossimo del calcolo automatico e
dell'Informatica, viene da pensare come , infine, tutto sembra essere stato
una lunga preparazione allo sviluppo della Grande Rete, con ciò che, nel
bene e nel male, ha comportato. Oggi pare quasi ridicolo o
quantomeno anacronistico pensare ad un elaboratorre stand alone,
isolato, che 'sta da solo' come suggerisce la traduzione letterale
dall'inglese. Non possiamo nemmeno più concepire comunicazione e forme
collaborative che prescindano dall'esistenza di Internet. Come tutte le cose
umane, Internet può essere usata per scopi alti e per altri che
certamente lo sono meno. Ma, allo stesso modo in cui nessuno penserebbe di
tornare ad usare i lumi ad olio per illuminare le strade, oggi nessuno
può ignorare ciò che la Rete rappresenta e offre. Essa ha prodotto in noi
cambiamenti irreversibili nel modo di lavorare, comunicare, ottenere
informazioni, studiare. Anche se forse proprio la didattica, almeno in Italia,
resta uno dei settori che ancora non è riuscito ad avvalersi
efficacemente dello strumento e delle sue risorse.
In fin dei conti questo sito nasce anche con la piccola ambizione di portare un
contributo e magari di suscitare qualche presa di coscienza sull'argomento.
Ho raccolto e propongo qui una vecchia e storica immagine che, a
dispetto della semplicità grafica, rappresenta l'embrione di Internet, la
materializzazione di un'idea geniale. Vi sono i primi 4 nodi di Arpanet
appartenenti alle quattro università che nel 1969 diedero vita al progetto: l'Università di California Los
Angeles (UCLA), Lo Stanford
Research Institute (SRI), l' Università
di California S.Barbara (UCSB) e l'Università dello
Utah . Chi vuole può leggere anche "l'atto di nascita", il
primo Request for Comments, RFC 1.
Tutto nacque da lì.
(1) Potrebbe essere un esempio di 'esperimento
pensato'. Una bilancia adatta ad una misura di questo tipo sarebbe
difficilmente realizzabile: tra l'altro dovrebbe essere del tutto immune ai
campi elettromagnetici esterni e generati dalle due cariche.
(2) Prodotto da Gecad, era un ottimo antivirus per mail server,
principalmente Linux, che serviva allora quasi 10 milioni di utenti.
Acquistata nel 2003 da Microsoft, Gecad ne ha stranamente subito cessato
la produzione.
(3) Non essendo ingenui possiamo senz'altro pensare ad una intensa
operazione di fidelizzazione da parte di Cisco Systems, attraverso
l'offerta di alettanti corsi di studio. Poichè siamo anche pragmatici
rileviamo che necessariamente questo tipo di formazione non può essere legato
ad una singola marca di dispositivi e che attualmente non esiste qualcosa di
seriamente paragonabile all'investimento di Cisco systems in questo
settore.
© 2008 Sandro Ronca Note legali e d'uso

Elettrotecnica e non solo (admin)
Un gatto tra gli elettroni (IsidoroKZ)
Esperienza e simulazioni (g.schgor)
Moleskine di un idraulico (RenzoDF)
Il Blog di ElectroYou (webmaster)
Idee microcontrollate (TardoFreak)
PICcoli grandi PICMicro (Paolino)
Il blog elettrico di carloc (carloc)
DirtEYblooog (dirtydeeds)
Di tutto... un po' (jordan20)
AK47 (lillo)
Esperienze elettroniche (marco438)
Telecomunicazioni musicali (clavicordo)
Automazione ed Elettronica (gustavo)
Direttive per la sicurezza (ErnestoCappelletti)
EYnfo dall'Alaska (mir)
Apriamo il quadro! (attilio)
H7-25 (asdf)
Passione Elettrica (massimob)
Elettroni a spasso (guidob)
Bloguerra (guerra)





