Dark Web (eBook)
202 Seiten
Eine Milliarde Sachkundig [German] (Verlag)
978-0-00-078971-6 (ISBN)
Entdecken Sie die verborgene Welt des Dark Web und seine Verbindungen zu Kryptowährungen mit 'Dark Web', Teil der 'Cryptocurrency Tumbler'-Reihe von Fouad Sabry. In diesem aufschlussreichen Buch entdecken Sie die tiefgreifende Komplexität und die Auswirkungen der dunklen Online-Bereiche, die illegale Aktivitäten begünstigen, und wie Kryptowährungen genutzt werden, um Transaktionen in diesen Bereichen zu ermöglichen. Dieses Buch ist unverzichtbar für Fachleute, Studierende, Enthusiasten und Hobbyisten, die ein tieferes Verständnis von Cyberkriminalität, digitaler Anonymität und der Entwicklung von Online-Märkten erlangen möchten. Seine Erkenntnisse sind wertvoll für alle, die sich in der sich entwickelnden digitalen Landschaft von Datenschutz, Sicherheit und Kriminalität bewegen oder diese studieren.
Kapitelübersicht:
Dark Web: Einführung in das Dark Web, seine Funktionen und seine Unterschiede zum Surface Web.
Agora (Online-Marktplatz): Ein Blick auf Agora, einen bedeutenden Marktplatz im Dark Web, und seine Auswirkungen.
Deep Web: Erforscht das Deep Web und seine Beziehung zum Dark Web mit Schwerpunkt auf Datenschutz und Anonymität.
Darknet-Markt: Ein detaillierter Blick auf Darknet-Märkte und ihre Rolle bei der Ermöglichung illegaler Transaktionen.
Evolution (Marktplatz): Die Entwicklung von Darknet-Marktplätzen und ihre Anpassung an die Strafverfolgungsbehörden.
Darknet: Die Grundlagen des Darknets, einschließlich seiner Technologien und seiner Bedeutung für illegale Aktivitäten.
Silk Road (Marktplatz): Ein tiefer Einblick in Silk Road, den berüchtigten Marktplatz, der das Darknet für immer verändert hat.
Dream Market: Der Aufstieg, die Aktivitäten und die letztendliche Schließung von Dream Market aufgrund von Strafverfolgungsbehörden.
The Hub (Forum): Das Hub-Forum, seine Community und ihre Rolle bei der Förderung illegalen Handels werden analysiert.
Ahmia: Eine Überprüfung von Ahmia, einer Suchmaschine für den sicheren Zugriff auf Darknet-Inhalte.
Tor Carding Forum: Einblicke in das Tor Carding Forum und seinen Schwerpunkt auf Kreditkartenbetrug im Darknet.
Operation Onymous: Untersucht Operation Onymous, ein globales Vorgehen gegen kriminelle Aktivitäten im Dark Web.
Dread (Forum): Ein Blick auf das Dread-Forum, insbesondere seine Rolle als Plattform für Diskussionen und illegalen Handel.
Tor (Netzwerk): Die Rolle des Tor-Netzwerks beim anonymen Surfen, zentral für Dark Web-Aktivitäten.
Grams (Suche): Grams als Suchmaschine für Dark Web-Marktplätze und -Inhalte.
DeepDotWeb: Untersucht DeepDotWeb und seine Rolle bei der Bereitstellung von Zugang und Nachrichten zum Dark Web.
Cyberkriminalität: Erforscht, wie Cyberkriminalität im Dark Web floriert und welche Methoden zur Durchführung illegaler Aktivitäten eingesetzt werden.
TheRealDeal: Ein Fokus auf den Marktplatz TheRealDeal, einen der Hauptakteure bei Dark Web-Transaktionen.
Doxbin (Darknet): Doxbins Rolle beim Doxxing und der Offenlegung persönlicher Daten, oft böswillig genutzt.
The Hidden Wiki: Taucht ein in The Hidden Wiki, ein Verzeichnis von Darknet-Links, und seine Rolle im Darknet-Ökosystem.
Cthulhu (Entwickler): Erforscht Cthulhu, einen Entwickler, der die technologische Landschaft des Darknets maßgeblich geprägt hat.
Mit 'Darknet' erhalten Sie wichtige Einblicke in die komplexe Welt des Darknets und der Kryptowährungen. Sie verstehen, wie diese auf illegalen Märkten interagieren und wie die Strafverfolgungsbehörden versuchen, dieses wachsende Problem in den Griff zu bekommen. Ob Student, Berufstätiger oder neugieriger Privatperson - dieses Buch bietet Ihnen das nötige Wissen und den Kontext, um die sich ständig weiterentwickelnde Welt der digitalen Kriminalität und der Kryptowährungen zu verstehen.
Kapitel 3 :Tiefes Web
Das Deep Web, auch bekannt als das ungesehene Web oder das versteckte Web, bezieht sich auf Bereiche des World Wide Web, die von den meisten der heute verfügbaren Websuchmaschinen nicht indiziert werden. Dies steht im Gegensatz zum "Surface Web", bei dem es sich um internetbasierte Inhalte handelt, auf die jeder über das Internet zugreifen kann. Es wird vermutet, dass Michael K. Bergman, ein Informatiker, derjenige war, der den Begriff im Jahr 2001 als Suchindizierungsbegriff erfand.
Direkte URLs oder IP-Adressen können verwendet werden, um Deep-Web-Sites zu besuchen. Um jedoch auf den eigentlichen Inhalt dieser Websites zugreifen zu können, müssen Benutzer möglicherweise ein Passwort oder andere Sicherheitsdetails angeben. Internet-Mail, Online-Banking, Cloud-Speicher, Social-Media-Profile und Seiten mit eingeschränktem Zugang sowie Online-Foren, die eine Registrierung erfordern, um Material zu lesen, sind Beispiele für Anwendungen, die auf Deep-Web-Sites zu finden sind. Darüber hinaus umfasst es Paywall-Dienste wie Video-on-Demand sowie bestimmte Online-Zeitschriften und Zeitungen.
Die Begriffe "Deep Web" und "Dark Web" wurden 2009 zunächst miteinander verwechselt. Dies geschah im Jahr 2009, als die Sprache der Deep-Web-Suche im Zusammenhang mit illegalen Aktionen diskutiert wurde, die im Freenet und im Darknet stattfanden. Zu diesen illegalen Handlungen gehören der Verkauf von persönlichen Passwörtern, Dokumenten mit betrügerischen Identitäten, illegalen Substanzen, Waffen und pornografischem Material über Kinder.
Danach haben die Medien den Begriff "Deep Web" in der Regel synonym mit den Begriffen "Dark Web" oder "Darknet" verwendet. Dies ist ein Vergleich, den einige Leute für falsch halten und der daher immer wieder zu Verwirrung führt. Dies liegt daran, dass die Medien diese Begriffe in ihrer Berichterstattung über die Website Silk Road verwendet haben, bei der es sich um eine Website handelt, die mit illegalen Waren handelt. Kim Zetter und Andy Greenberg, die beide Reporter für Wired sind, empfehlen, die Phrasen auf unterschiedliche Weise zu verwenden. Das Dark Web ist ein Teil des Deep Web, der absichtlich verborgen wurde und mit normalen Browsern und Methoden nicht erreichbar ist. Das Deep Web ist ein Verweis auf jede Website, die von einer herkömmlichen Suchmaschine nicht erreicht werden kann. Das Dark Web ist eine Teilmenge des Deep Web.
Bergman erwähnte, dass Jill Ellsworth 1994 den Begriff "Invisible Web" einführte, um Websites zu beschreiben, die bei keiner Suchmaschine registriert waren. Dies wurde in einer Studie über das Deep Web erwähnt, die Bergman über das Deep Web schrieb und im Journal of Electronic Publishing veröffentlichte. Bergman bezog sich auf einen Artikel, den Frank Garcia im Januar 1996 geschrieben hatte:
Sie machten sich nicht die Mühe, die Website bei einer der Suchmaschinen zu registrieren, obwohl es sich um eine Website handelte, die als anständig erstellt angesehen werden könnte. Niemand wird sie finden können! Sie sind nicht sichtbar. Es ist das, was ich als das unsichtbare Web bezeichne.
Eine weitere frühe Verwendung des Ausdrucks "Invisible Web" stammt von Bruce Mount und Matthew B. Koll von Personal Library Software. Sie verwendeten das Wort, um die Nr. 1 der Deep-Web-Software zu beschreiben, die in einer Pressemitteilung entdeckt wurde, die im Dezember 1996 veröffentlicht wurde.
Die bereits erwähnte Bergman-Studie aus dem Jahr 2001 war das erste Mal, dass der Begriff "Deep Web" verwendet wurde, und er ist heute allgemein akzeptiert.
Im Folgenden sind einige der Kategorien aufgeführt, die zur Klassifizierung der vielen Methoden verwendet werden können, die verwendet werden, um zu verhindern, dass Webseiten von herkömmlichen Suchmaschinen indiziert werden:
Ein kontextbezogenes Web ist eine Webseite mit Inhalten, deren Inhalt sich je nach dem Kontext, in dem auf sie zugegriffen wird, ändert (z. B. ein Bereich von Client-IP-Adressen oder die Reihenfolge der Navigation, die davor stand).
Der Begriff "dynamischer Inhalt" bezieht sich auf Seiten, die als Antwort auf eine eingereichte Anfrage generiert werden oder die nur über ein Formular aufgerufen werden können. Dies gilt insbesondere dann, wenn Open-Domain-Eingabeelemente (z. B. Textfelder) verwendet werden. Diese Art von Feldern ist ohne Vorkenntnisse des Bereichs schwer zu durchsuchen.
Der Begriff "Inhalte mit eingeschränktem Zugriff" bezieht sich auf Websites, die den Zugriff auf ihre Seiten durch den Einsatz technischer Mittel einschränken (z. B. durch den Einsatz des Robots Exclusion Standard oder CAPTCHAs oder durch die Implementierung einer No-Store-Direktive, die Suchmaschinen daran hindert, die Seiten zu besuchen und zwischengespeicherte Versionen zu erstellen). Auf Websites kann eine interne Suchmaschine zur Verfügung stehen, um diese Seiten zu untersuchen.
Textinhalte, die in Multimediadateien (z. B. Bildern oder Videos) oder bestimmten Dateiformaten codiert sind, die von Suchmaschinen nicht erkannt werden, fallen unter die Kategorie der Nicht-HTML-/Textinhalte.
- Privates Web: Websites, bei denen Benutzer ein Konto erstellen und sich anmelden müssen (Ressourcen, die durch ein Passwort geschützt sind).
Zu den Inhalten, für die ein Skript erstellt wurde, gehören Websites, auf die nur über Links zugegriffen werden kann, die von JavaScript generiert werden. Darüber hinaus umfassen skriptgesteuerte Inhalte Inhalte, die mithilfe von Flash- oder Ajax-Lösungen dynamisch von Webservern heruntergeladen werden.
Im Bereich der Software werden bestimmte Inhalte absichtlich vor dem öffentlichen Internet verborgen und dürfen nur durch den Einsatz spezieller Software wie Tor, I2P oder anderer Darknet-Software abgerufen werden. Zur Veranschaulichung: Tor ermöglicht es Benutzern, Websites anonym zu betrachten, indem sie die Serveradresse von the.onion verwenden und so ihre IP-Adresse verbergen.
Seiten, auf die keine anderen Seiten verweisen, werden als "nicht verlinkte Inhalte" bezeichnet. Diese Art von Inhalten kann dazu führen, dass Web-Crawling-Programme die einzelnen Websites nicht erreichen. Seiten, die keine Backlinks haben, werden als Inlinks bezeichnet, was ein anderer Name für diese Art von Informationen ist. Darüber hinaus identifizieren Suchmaschinen nicht immer alle Backlinks, die sich auf Webseiten befinden, die durchsucht werden.
- Web-Archive: Web-Archivierungsdienste wie die Wayback Machine ermöglichen es Benutzern, archivierte Versionen von Webseiten anzuzeigen, die über einen bestimmten Zeitraum gespeichert wurden. Zu diesen Versionen gehören Websites, die nicht erreichbar waren und nicht von Suchmaschinen wie Google indiziert werden. Denkbar ist, die Wayback Machine als ein Tool zu bezeichnen, das den Nutzern den Zugriff auf das Deep Web ermöglicht. Dies liegt daran, dass Online-Archive, die nicht aus der Gegenwart stammen, nicht indiziert werden können und auch ältere Versionen von Websites nicht über eine Suche angezeigt werden können. Aufgrund der Tatsache, dass jede Website zu einem bestimmten Zeitpunkt aktualisiert wird, gelten Online-Archive als Material im Deep Online.
Trotz der Tatsache, dass es nicht immer möglich ist, den Inhalt eines bestimmten Webservers direkt zu entdecken, um ihn zu indizieren, ist es möglich, indirekt auf eine Website zuzugreifen (aufgrund von Fehlern in Computern).
Webcrawler werden von Suchmaschinen verwendet, um Inhalte im Internet zu entdecken. Diese Crawler verfolgen Hyperlinks über virtuelle Portnummern, die einem bestimmten Protokoll angehören. Wenn es darum geht, Inhalte auf der Oberfläche online zu entdecken, ist diese Methode perfekt; Trotzdem gelingt es häufig nicht, wenn es darum geht, Inhalte im Deep Web zu entdecken. Aufgrund der Tatsache, dass es eine unbekannte Anzahl von Suchvorgängen gibt, die durchgeführt werden können, machen sich diese Crawler beispielsweise keine Mühe, dynamische Websites zu finden, die das Ergebnis von Datenbankabfragen sind. Es wurde beobachtet, dass dies (zumindest teilweise) umgangen werden kann, indem Links zu den Ergebnissen einer Abfrage angegeben werden. Dennoch kann dies unbeabsichtigt zu einer Steigerung der Popularität einer Website führen, die sich im Deep Web befindet.
Es gibt einige Suchmaschinen, die sich Zugang zum Deep Web verschafft haben. Dazu gehören DeepPeep, Intute, Aleph Open Search, Deep Web Technologies, Scirus und Ahmia.fi. Seit Juli 2011 fungiert Intute weiterhin als temporäres statisches Archiv, da es seine Finanzierung erschöpft hat. Gegen Ende Januar 2013 kündigte Scirus seinen Rücktritt an.
Forscher haben die Möglichkeit untersucht, das Deep Web automatisch zu crawlen, das Inhalte enthält, auf die nur von spezialisierter Software wie Tor zugegriffen werden kann. Solche Inhalte werden derzeit analysiert. Sriram Raghavan und Hector Garcia-Molina, beide vom Stanford Computer Science Department der Stanford University, präsentierten im Jahr 2001 ein Architekturmodell für einen Hidden-Web-Crawler. Dieses Modell verwendete wichtige Begriffe, die von Benutzern bereitgestellt oder von den Abfrageschnittstellen gesammelt wurden, um ein Webformular abzufragen und den Inhalt des Deep Web zu crawlen. Die Forscher Alexandros Ntoulas, Petros Zerfos und Junghoo Cho von der University of California, Los Angeles (UCLA) entwickelten einen Hidden-Web-Crawler, der automatisch aussagekräftige Suchanfragen generierte, die gegen Suchformulare durchgeführt wurden. Es wurde eine Reihe von Formularabfragesprachen entwickelt, wie z. B....
| Erscheint lt. Verlag | 30.4.2025 |
|---|---|
| Übersetzer | Daniel Hueber |
| Sprache | deutsch |
| Themenwelt | Informatik ► Netzwerke ► Sicherheit / Firewall |
| ISBN-10 | 0-00-078971-2 / 0000789712 |
| ISBN-13 | 978-0-00-078971-6 / 9780000789716 |
| Informationen gemäß Produktsicherheitsverordnung (GPSR) | |
| Haben Sie eine Frage zum Produkt? |
Größe: 574 KB
Kopierschutz: Adobe-DRM
Adobe-DRM ist ein Kopierschutz, der das eBook vor Mißbrauch schützen soll. Dabei wird das eBook bereits beim Download auf Ihre persönliche Adobe-ID autorisiert. Lesen können Sie das eBook dann nur auf den Geräten, welche ebenfalls auf Ihre Adobe-ID registriert sind.
Details zum Adobe-DRM
Dateiformat: EPUB (Electronic Publication)
EPUB ist ein offener Standard für eBooks und eignet sich besonders zur Darstellung von Belletristik und Sachbüchern. Der Fließtext wird dynamisch an die Display- und Schriftgröße angepasst. Auch für mobile Lesegeräte ist EPUB daher gut geeignet.
Systemvoraussetzungen:
PC/Mac: Mit einem PC oder Mac können Sie dieses eBook lesen. Sie benötigen eine
eReader: Dieses eBook kann mit (fast) allen eBook-Readern gelesen werden. Mit dem amazon-Kindle ist es aber nicht kompatibel.
Smartphone/Tablet: Egal ob Apple oder Android, dieses eBook können Sie lesen. Sie benötigen eine
Geräteliste und zusätzliche Hinweise
Buying eBooks from abroad
For tax law reasons we can sell eBooks just within Germany and Switzerland. Regrettably we cannot fulfill eBook-orders from other countries.
aus dem Bereich