Σύμφωνα με εκτιμήσεις, μέσα στο 2009 θα ‘παραχθούν’ 4-5 exabytes — δηλαδή τέσσερα με πέντε εκατομμύρια terabytes — νεας, μοναδικής πληροφορίας παγκοσμίως από ιδιώτες και επιχειρήσεις, εξαιρώντας αυτή που παράγεται σε μεγάλα επιστημονικά κέντρα στα πλαίσια ερευνητικών προγραμμάτων (βλ. CERN) ή κυβερνήσεων. Στην εποχή των πολλαπλών διαθέσιμων Terabytes για οικιακή χρήση στην Ευρώπη, τις ΗΠΑ αλλά και αναπτυσσόμενες χώρες, της συνδεσιμότητος που μετριέται σε πολλαπλά (μερικές φορές δεκάδες ή ακόμη και εκατοντάδες) Mbits ανα δευτερόλεπτο, ενός πολιτισμού ανοιχτής και άμεσης πρόσβασης στη παγκόσμια πληροφορία και της δυνατότητας επαναχρησιμοποίησης αυτής σε κάποιες περιπτώσεις (βλ. Creative Commons, Ανοιχτό Λογισμικό κλπ.), το νούμερο ίσως να μη φαντάζει όσο εντυπωσιακό όσο θα έπρεπε. Όμως είναι. Και εκτός αυτού μεγαλώνει κάθε χρόνο με ταχύτατους ρυθμούς.
Ενα από τα βασικά προβλήματα που θα αντιμετωπίσουμε στο εγγύς μέλλον, ή ορθότερα αντιμετωπίζουμε ήδη ως πολιτισμός, μια ωρολογιακή βόμβα που μέχρι σήμερα συστημικά είτε αγνοούμε, είτε απλώς επιλέγουμε να αποφύγουμε, να μεταθέσουμε δηλαδή τις όποιες προσπάθειες αντιμετώπισής της για το μέλλον είναι αυτή της διατήρησης της πληροφορίας. Μιας πληροφορίας που πλέον τόσο εύκολα — και σε τόσο μεγάλο όγκο — μπορούμε να δημιουργήσουμε.
Το ζήτημα μπορεί να μην απασχολεί τον περισσότερο κόσμο, όλους εμάς που αποθηκεύουμε φωτογραφίες, έγγραφα, μουσική, βίντεο, τη πληροφορία που ορίζει μεγάλο μέρος της ζωής μας και των αναμνήσεών μας, της ψυχαγωγίας και του Αρχείου μας, σε ψηφιακά μέσα αποθήκευσης όπως σκληροί δίσκοι, CD-R και DVD±R, ταινίες ή δισκέττες (?). Πάνε πέντε χρόνια τουλάχιστον από τότε που διάβασα σε κάποιο άρθρο του IEEE Spectrum πως στις Ηνωμένες Πολιτείες ερευνητές είχαν εκφράσει την ανησυχία τους πως τα κρατικά δεδομένα που παράγονται και αποθηκεύονται σύντομα θα ξεπερνούσαν τους ικανούς ρυθμούς ‘ελέγχου’ των μέσων αυτών και στο πολύ προσεχές μέλλον θα ξεπερνούσαν ακόμη και τους ρυθμούς αντιγραφής των μέσων αυτών καθιστώντας έτσι τα δεδομένα αυτά έρμαιο της τύχης και των αλγορίθμων κωδικοποίησης.
Τι σημαίνει το παραπάνω και πως προκύπτει όμως; Οι ρυθμοί αύξησης της υπολογιστικής ισχύος τις τελευταίες πέντε δεκαετίες περίπου προκύπτουν από τον νόμο του Moore:
The complexity for minimum component costs has increased at a rate of roughly a factor of two per year … Certainly over the short term this rate can be expected to continue, if not to increase. Over the longer term, the rate of increase is a bit more uncertain, although there is no reason to believe it will not remain nearly constant for at least 10 years. That means by 1975, the number of components per integrated circuit for minimum cost will be 65,000. I believe that such a large circuit can be built on a single wafer.
Πως μεταφράζεται αυτό σε απλή ελληνική; Πρακτικά αυτό που έγραφε ο Moore το 1965 ήταν πως η πολυπλοκότητα ενός ‘προσιτού’ ηλεκτρονικού κυκλώματος διπλασιάζεται σχεδόν κάθε δυο χρόνια. Ένα μεγάλο έυρος συσκευών και τεχνολογιών υπάγονται στατιστικά στον νόμο του Moore: η πολυπλοκότητα των μικροεπεξεργαστών (βλ. ταχύτητά τους), η χωρητικότητα της μνήμης και των σκληρών δίσκων κλπ.
Ενώ όμως όλες αυτές οι μετρικές παραμένουν πιστές στον νόμο αυτόν — ακόμη και σήμερα, εποχή στα πρόθυρα ενός paradigm shift, όπου η φυσική και τα όρια της προστάζουν νέες μεθόδους ανάπτυξης των τεχνολογιών κατασκευής μικροεπεξεργαστών, αυτών της αποθήκευσης της πληροφορίας κ.ο.κ. — μια μετρική επιμένει στην άρνηση: αυτή της ταχύτητας προσπέλασης και εγγραφής της πληροφορίας. Και είναι αυτή η μετρική που, σε συνδυασμό με την περιορισμένη διάρκεια ζωής των σύγχρονων μέσων αποθήκευσης, απειλούν με ενδημική αμνησία την ανθρωπότητα τις επόμενες δεκαετίες.
Καθώς ολοένα περισσότερη πληροφορία θα παράγεται, η δυσκολία αντιγραφής της σε νεα μέσα προτού τα αυθεντικά καταστραφούν θα γίνεται ολοένα δυσκολότερη, εκτός και εαν επιτύχουμε ραγδαία αύξηση της ικανότητας αντιγραφής αυτής στα επόμενα δέκα με δεκαπέντε χρόνια. Σαν να μην έφτανε αυτό, η ταχύτατη αλλαγή λογικών προτύπων αποθήκευσης της πληροφορίας, των φυσικών και τεχνολογικών μέσων, του λογισμικού και των συναφών συστημάτων μεταφράζεται σε αυξημένη δυσκολία προσπέλασης της πληροφορίας που έχει αποθηκευθεί σε φυσικά αποθηκευτικά μέσα (π.χ. δισκέττες, ταινίες DLT ή open-reel) που είτε βρίσκονται είτε σύντομα θα βρεθούν στα όρια της χρήσιμης ζωής τους.
Κι ενώ οι ερευνητές αυτοί, μαζί με αρκετούς άλλους παγκοσμίως — είμαι βέβαιος — προσπαθούν να λύσουν τα παραπάνω, η μεγάλη πλειοψηφία των συνανθώπων μας εξακολουθεί να εξαρτά ολοένα και μεγαλύτερο μέρος της πληροφορίας που την ορίζει σε μηχανήματα χωρίς να σκεφθεί ούτε λεπτό τις συνέπειες τόσο για τη δική τους όσο και για τις ζωές των επόμενων γενεών αλλά και πόσο εύκολα, με πόση βεβαιότητα αυτή ενδέχεται να καταστραφεί σήμερα ή σε μερικά χρόνια.