Η γενικότερη αντίληψη, όταν σκέφτεται κανείς για το...Ίντερνετ, είναι ότι πρόκειται για ένα αέναο μόρφωμα, χωρίς αρχή, μέση και τέλος, για το οποίο η έννοια του «χώρου» είναι πρακτικά ανύπαρκτη.
Ωστόσο, ερευνητές που συμμετείχαν σε συνάντηση στη Royal Society στο Λονδίνο μελέτησαν αυτό ακριβώς: την έλευση ενός πιθανού «capacity crunch»- ή αλλιώς, της εξάντλησης του χώρου- και τι μπορέι να γίνει σε αυτό.
Όπως αναφέρεται σε σχετικό δημοσίευμα του New Scientist, η συνάντηση προκάλεσε αίσθηση, καθώς αναφέρθηκαν φόβοι και προβληματισμοί για ένα Ίντερνετ χωρίς άλλον χώρο, ωστόσο η πραγματικότητα είναι ιδιαίτερα πολύπλοκη.
Το «crunch» είναι πραγματικό, και προκαλείται από την ταχεία αύξηση της κατανάλωσης online υλικού, μέσω υπηρεσιών όπως το Netflix και το YouTube, ωστόσο, όπως σημειώνεται, η φυσική και η μηχανολογία μπορούν να βοηθήσουν στην αποφυγή του, απλά και μόνο μέσω μερικών μικρών αλλαγών.
Οι φόβοι περί capacity crunch βασίζονται στο γεγονός ότι υπάρχει όριο στον όγκο της πληροφορίας που μπορεί να «στριμωχτεί» μέσα σε ένα κανάλι επικοινωνίας, είτε αυτό είναι οπτική ίνα, είτε χάλκινο καλώδιο.
Το όριο αυτό εξαρτάται από το bandwidth του καναλιού (τον αριθμό συχνοτήτων που μπορεί να μεταδώσει) και το SNR (signal to noise ratio).
Η χωρητικότητα πληροφοριών των οπτικών ινών μπορεί να αυξηθεί μέσω της αύξησης ισχύος του φωτός που περνάει μέσα από αυτές.
Αυτό ενισχύει το σήμα που κωδικοποιεί μία προβαλλόμενη εκπομπή στο Netflix, έτσι ώστε να υπερισχύει του «θορύβου», καθιστώντας δυνατή την «ανάγνωσή» του στην άλλη πλευρά.
Τρόποι ενίσχυσης του σήματος διερευνώνται εδώ και δεκαετίες, αυξάνοντας τη χωρητικότητα των ινών που έχουν περαστεί ήδη και καλύπτοντας τις ανάγκες του Internet traffic.
Ωστόσο, αυτή η μέθοδος οδηγεί σε αδιέξδο, καθώς από ένα σημείο και μετά η ίνα γεμίζει φως και το σήμα υποβαθμίζεται.
Το όριο αυτό σημαίνει ότι οι ίνες που χρησιμοποιούνται τώρα φτάνουν στα άκρα τους.
«Δεν μπορείς να έχεις άπειρο όγκο πληροφορίας σε μια ίνα» λέει σχετικά sto New Scientist o Άντριου Έλις, του Aston University, ένας εξ αυτών που οργάνωσαν το συνέδριο.Από πλευράς του, ο Ρενέ Ζαν Εσιάμπρ, της Alcatel-Lucent παρουσίασε έρευνα που δείχνει ότι το όριο είναι γύρω στα 100 terabits/ δευτερόλεπτο, στο οποίο θα μπορούσαμε να φτάσουμε μέσα σε πέντε χρόνια.
Ωστόσο, η Πολίνα Μπάιβελ, του University College London παρουσίασε έρευνα πάνω στην «διόρθωση»/ «επανόρθωση» όσον αφορά στην παραμόρφωση στην οπτική ίνα.
Η τεχνική της αναλύει την παρεμβολή μέσα στην ίνα καθώς περνάει το φως και στη συνέχεια υπολογίζεται πώς παραμορφώθηκε το φως, επιτρέποντας στον παραλήπτη να «καθαρίσει» το σήμα στην άλλη πλευρά.
Στην ουσία, ο παραλήπτης λαμβάνει ένα προβληματικό σήμα, το οποίο στη συνέχεια «καθαρίζει», εξάγοντας/ αναδημιουργώντας ψηφιακά το επιθυμητό σήμα.
Επίσης, ο Ντέιβιντ Ρίτσαρντσον, του University of Southampton, διερευνά νέες ίνες που περιέχουν πολλαπλούς πυρήνες για μετάδοση δεδομένων- πρακτικά πολλές ίνες σε μία.
Είναι πιο δύσκολο να φτιαχτούν από ό,τι συμβατικές ίνες, αλλά είναι σε θέση να διαχειρίζονται πολύ περισσότερα δεδομένα.
naftemporiki.gr
0 σχόλια:
Δημοσίευση σχολίου
Σημείωση: Μόνο ένα μέλος αυτού του ιστολογίου μπορεί να αναρτήσει σχόλιο.