Image Image Image Image

Das Deep Web: unendliche Weiten

Jeder der sich im Internet bewegt ob beruflich oder Privat hat sich doch bestimmt auch schon gefragt wie groß das Internet eigentlich ist.

Einer  Untersuchung der Barkley University  of California aus dem Jahre 2003 zufolge wird die Datenmenge des Internets auf über 92.000 Terabyte geschätzt. Das Internet wird aber in 2 Teile geteilt, einmal das Surface Web  (Oberflächen /Sichtbares Web) und zum andern das Deep Web (unsichtbares/tief Web)

1.       Datenmenge: Surface Web 2003 geschätzte 167 Terabyte

2.       Datenmenge: Deep Web  2003 geschätzte 91.850 Terabyte

Nur nochmal als kleine Information 1 Terabyte sind ca. 1024 Gigabyte.

Also wenn sie jetzt einen Begriff bei Google oder einer anderen Kommerziellen Suchmaschine eingeben werden nur die Datenmengen des Surface Web durchsucht weil die Suchmaschinen nämlich auf die meisten Daten des Depp Web keinen Zugriff haben.

Aber warum ist das so?

Der Größte Teil des Deep Webs besteht aus Datenbanken, Firmendatenbanken, Universitätsdatenbanken, Behördendatenbanken usw. diese natürlich nicht frei Zugänglich sein dürfen weil sich zum Teil auch wichtige Geheime Daten, Forschungsergebnisse und Unternehmensdaten in diesen Datenbanken befinden und diese natürlich nicht für jedermann bestimmt sind.

Als Beispiel kann man hier die amerikanische Raumfahrtbehörde NASA nennen die hat über 215 Terabyte an Daten im Deep Web oder die Datensammlung des National Climatic Data Center mit über 315 Terabyte und natürlich auch nicht zu vergessen die großen Bibliotheken wie z.B. die Library of Congress in Washington mit ca. 10 Terabyte. Sicher befinden sich auch Unmengen von Nachrichtendienstlichen  Datenbanken  wie die vom Bundesnachrichtendienst, CIA oder FBI im Deep Web die diese Immense Größe erklären würden.

Und das der Zugriff auf solche Datenbanken nicht für jedermann gestattet werden kann kann ist ja klar:-) Obwol ich da nur zu gern drin lesen würde!

Google und das Deep Web

Google Interessiert sich natürlich auch für die Daten aus dem Deep Web kommt aber an diese nicht richtig ran weil viele speziell geschützt sind so ist der Zugriff auf die Daten z.B. mit Firewalls geschützt die nur bestimmte IP Adressen und mit bestimmten Benutzerdaten den Zugriff gestatten. Es gibt aber auch frei Zugängliche Datenbanken und um diese Auslesen zu können und als Suchergebnis verwertbar zu machen überarbeitet Google bereits seine Webcrawler so das in Zukunft auch Automatisierte Datenbankanfragen gestellt werden können um die Suchergebnisse noch vielseitiger zu machen und die Brachliegenden Informationen ab zu schöpfen. Um noch mehr Informationen zu bieten digitalisiert Google auch Lizenzfreie Bücher und Bilder.

Ihr seht also dass wir uns in Zukunft noch auf viel viel mehr Informationen für Recherchearbeit freuen können wenn das Deep Web langsam erschlossen und verwertbar gemacht wird.  Ich persönlich freue mich immer über viele neue Informationen und Erkenntnisse.


Noch kein Fan? Folge WEBLOGIT auf Facebook oder Twitter, um nichts zu verpassen! ↵


Anzeige


Hier kannst Du Deine Meinung loswerden:

  • Interessant! Und vorallem wie schnell das täglich wächst, dass ist ein Hammer! Glaube, in keinen anderen Bereich gibt es so ein Zuwachs wie die Datenmengen im Internet. Zum Deep Web kann man auch alle Bereiche zählen, die hinter einer Passworteingabe steht.

    Wenn ich mal grob in meinem Webhost reinschaue und die Datenmengen von Server + Datenbank auf alle Domains rechne, komme ich auf rund 2,5 GB.

    lg Marcus



← Menü öffnen weblogit.net | Home