distinzione dei bit
C'è qualcosa di nascosto nell'uso che del "bit" fa l'informatica? Secondo me, sì; forse più che "nascosto" bisognerebbe dire "implicito". Si tratta di quello che potrebbe essere definito "terzo elemento". Siamo abituati a pensare alla numerazione binaria come a qualcosa basato su due valori, ad esempio 0 e 1. Ma per individuare, distinguere un valore dall'altro è necessario un terzo elemento che faccia da "sfondo", altrimenti non è possibile distinguere lo 0 dall'1. Non parlo della grafica, ovviamente, che è di per sè estremamente ridondante. Consideriamo però un segnale elettrico a due valori, funzione del tempo, che rappresenti una sequenza di bit: senza la conoscenza del "tempo di bit" non potremmo sapere di quanti bit è composta la sequenza; infatti se ad esempio il valore "uno" dura un secondo, esso potrebbe rappresentare 1 bit "uno" o 10.000 bit o qualsiasi altro numero di bit "uno" consecutivi, secondo la durata di ciascun bit ("terzo elemento")! Lo stesso si può dire per la memoria spaziale. Senza sapere quanto spazio occupa un bit sul supporto ("terzo elemento") non si può dire quanti bit consecutivi sono rappresentati. In generale, nessuna conoscenza è possibile senza la possibilità di riferirla ad un "contesto", che, regredendo, non può che avere base intuitiva (non razionale), come sembra dire Wittgenstein in "Osservazioni sui fondamenti della matematica". Il "terzo elemento" fa parte del contesto e va definito a priori. Forse la teoria degli insiemi, che io conosco abbastanza superficialmente, fornisce una risposta alla mia domanda. C'è qualcuno che può dire qualcosa in merito?