1. HIGHWAY ist ein Forum und Multihoster.
    Unsere Plattform steht nur überprüften Nutzern zur Verfügung.
    Zur Zeit sind die Registrierungen geöffnet. Die Prüfung einer Registrierung beträgt wenige Stunden.
    Die Prüfung ist notwendig, da sich auf unserer Seite aktuell gut hundert Forenspammer pro Tag registrieren wollen.

Usenet

Discussion in 'Anonymität & Internet-Sicherheit' started by 3way, Feb 12, 2025.

  1. 3way

    3way Vollzeit-OS-Ausprobierer Premium Trusted User Beta-Tester

    Joined:
    Jul 14, 2015
    Messages:
    4,951
    Likes Received:
    7,507
    Credit:
    179,014MB
    War ja klar, alter Fuchs :inlove::party:

    Hatte jetzt bloß ein paar kaputte Sachen... und wunderte mich, ob ich mir doch noch woanders einen Block holen/ausleihen sollte (so rein aus wissenschaftlichen Gründen, für's Testen... wobei Ausleihen fast flachfällt, weil eh alle Eweka/Highwinds haben).

    Usenet-Providers-and-Backbones-Version-2025-01-30.jpg
     
    Mydgard likes this.
  2. Yaknar

    Yaknar Administrativer Support Premium Trusted User

    Joined:
    Mar 5, 2015
    Messages:
    4,800
    Likes Received:
    9,776
    Credit:
    311,867MB
    Sind aber beide Omicron und haben daher beide dieselben Inhalte.
    Kann gleich mal einen Screenshot unserer sabnzbd Instanz machen, aber 99.9% der Artikel sind über Omicron verfügbar und ein ganz paar werden bei den anderen gefunden.
    Hatte überlegt noch abavia aufzunehmen, muss mal schauen ob es da Block Accounts gibt da vermutlich nur ein paar MB da noch am Ende ankommen
     
    3way likes this.
  3. Yaknar

    Yaknar Administrativer Support Premium Trusted User

    Joined:
    Mar 5, 2015
    Messages:
    4,800
    Likes Received:
    9,776
    Credit:
    311,867MB
    Hier sie Infos zu den Usenet Web Downloads der letzten 30 Tage, Usenet.farm bringt schon am meisten:
    upload_2025-2-12_14-30-53.png
     
  4. Yaknar

    Yaknar Administrativer Support Premium Trusted User

    Joined:
    Mar 5, 2015
    Messages:
    4,800
    Likes Received:
    9,776
    Credit:
    311,867MB
    Ich habe gerade Abavia und UsenetExpress US hinzugefügt. Es sind damit nun die folgenden Backends dabei:
    1. NL Server (Blau)
      1. Highwinds/Omicron (NL)
      2. Usenet.farm
      3. Vipernews (Uzo Reto)
      4. XS News (Abavia)
    2. US Server (Rot)
      1. Highwinds/Omicron US
      2. UsenetExpress US

    Je nachdem welche der beiden Maps man am ehesten vertrauen kann ist dann die Frage, aber würde diese Abdeckung ergeben (Blau = NL, Rot = US):
    upload_2025-2-13_13-44-41.png
    https://usenetprovidermap.com/NetworkMap.svg
    oder
    https://usenet.rexum.space/tree#map

    Ich gehe davon aus, dass die Highwinds, Base IP und Eweka Backends nicht getrennt sind, da sie alle auf dieselben IPs zeigen, von der Latenz gleich entfernt sind und ich nicht denke, dass 3 volle Backends von derselben Firma direkt nebeneinander betrieben werden.
    (Falls jemand Beispiele hat um das zu widerlegen gerne her damit :) )

    Für mich sieht es aber auch so aus, als hätte Giganews Netnews gekauft, vielleicht noch etwas abwarten und danach würde ich auch einen Account von deren Backbone hinzufügen.

    Viele Grüße
     
    Last edited: Feb 16, 2025
    inderiegel, hansi, Porco and 3 others like this.
  5. Porco

    Porco Trusted User Beta-Tester

    Joined:
    Dec 20, 2018
    Messages:
    998
    Likes Received:
    1,195
    Credit:
    258MB
    Verstehe nur Bahnhof, aber hat mein Interesse geweckt mal mich reinzulesen :)
     
    Mydgard likes this.
  6. PSC

    PSC PSC-Annahme nicht mehr möglich Premium Trusted User Beta-Tester PSC Annahmestelle

    Joined:
    May 3, 2020
    Messages:
    450
    Likes Received:
    778
    Credit:
    145,164MB
    Das Usenet ist so aufgebaut, dass Unternehmen Backbones betreiben, im Falle von Omicron sogar mehrere. Jede Backbone ist eine eigene Serverfarm, ggf. sogar ein eigenes Rechenzentrum. Auf den Festplatten dort liegen dann die Inhalte des Usenets.
    Das besondere am Usenet im Vergleich zum WWW ist, dass die Backbones sich untereinander austauschen: also das was bei einer Backbone hochgeladen (bzw. spricht man "fachsprachlich" von gepostet) wurde, wird auch an die anderen Backbones weitergegeben. Dadurch wird erreicht, dass per se alle Backbones die gleichen Daten erhalten und das sogar relativ zeitgleich.

    Wer dann aus dem Usenet etwas runterladen will macht das, indem er sich einen Zugang zu einer Backbone kauft. Den Zugang bietet dir dann der sog Usenet-Provider. Der kauft große Mengen Kontingente beim Backbone-Betreiber ein. Man kann einen Provider vergleichen mit einem Supermarkt: das Glas Nutella kaufst du ja auch nicht direkt bei Ferrero, sondern in einem Einzelhandelsgeschäft. Manche Provider haben auch Reseller: die wiederum wären (um beim Beispiel Supermarkt zu bleiben) am ehesten mit einem Kiosk vergleichbar. Vielleicht passt aber besser "selbständiger Handelsvertreter" - also die Reseller kaufen entweder Kontingente beim Provider oder erhalten eine Provision.

    Der größte Unterschied zwischen den Backbones ist die Retention: das ist im Endeffekt die Haltedauer. Einige Highwinds-Backbones (das Unternehmen Highwinds hat, wie du in der Usenet Tree-Grafik weiter oben siehst, sogar mehrere Backbones) haben über 5600 Tage. Das bedeutet: alles, was in den letzten 5600 Tagen ins Usenet hochgeladen wurde, hat Highwinds gespeichert. Es sei denn, es ist eine Abuse-Meldung eingegangen (idR weil ein Copyright-Inhaber einen Upload gelöscht haben wollte) - dann wird der betreffende Upload ("fachsprachlich" Posting genannt) halt gelöscht. Dieser Fall trifft im Usenet nur sehr selten auf. Bei Sharehostern wie Rapidgator wird viel, viel mehr gelöscht. Der Grund liegt, mutmaße ich, vor allem am Nischendasein, den das Usenet führt. Dadurch, dass es im Gegensatz zu Rapidgator nicht über das WWW zugänglich ist (bzw. nur über Umwege), werden Rechteinhaber nur höchst selten darauf aufmerksam. (Siehe Yaknars Screenshot, dass 98 % der angefragten Artikel gefunden werden) Die fehlenden 2 % werden mit Sicherheit auch größtenteils verlorengegangene Artikel sein. Ich schätze, dass <0,5 % der angefragten Artikel nicht gefunden wurden, weil sie abused wurden. Artikel wiederum sind einfach nur "Splitterteile" von Dateien: denn wenn eine Datei ins Usenet geladen wird, wird sie dabei aufgeteilt in ganz viele kleine Teile, die sog. Artikel. Eine 100 MB große rar-Datei z.B. wird dann oft in tausende Artikel geteilt, alle nur ein paar KB groß. Ich glaube, ein Artikel darf maximal 2 MB groß sein, sonst wird er (abhängig vom Usenet-Provider, bei dem der Uploader hochlädt) abgewiesen.

    Aus dem Grund dass Artikel teilweise "verloren" gehen gibt es bei den meisten Uploads auch die Wiederherstellungsinformationen (par2-Dateien). Dank paritätischer Berechnung kann dein Computer (unter großer Prozessorauslastung) verlorengegangene Artikel "errechnen". Das geht aber nur bis zu einem bestimmten Grad und sabnzbd bzw nzbget würden auch eine Warnmeldung zeigen, 1. wenn Artikel nicht gefunden wurden UND 2. wenn es zu viele sind, um das Archiv zu rekonstruieren.
     
  7. hansi

    hansi Serious User

    Joined:
    Jul 30, 2023
    Messages:
    67
    Likes Received:
    303
    Vielen Dank für diesen Beitrag. Jetzt habe ich etwas besser das Usenet verstanden!
     
    Mydgard, PSC, inderiegel and 2 others like this.
  8. Sorcerer

    Sorcerer Premium Serious User

    Joined:
    Nov 4, 2017
    Messages:
    91
    Likes Received:
    119
    Credit:
    30,639MB
    Ich danke dir auch PSC für diese Erklärungen.

    Weisst du vielleicht auch, warum die Usenet Provider in der Lage sind solch gigantische Mengen an Daten zu speichern? Speicherplatz ist nicht umsonst, und die hochgeladenen Daten pro Tag sind riesig.

    Habe gehört einige Usenet Provide erhöhen die Retention auch immer weiter, was heissen würde neu hochgeladene Datein werden gar nicht mehr gelöscht. Filehoster dagegen löschen inaktive Dateien oft schon nach wenigen Tage/Wochen/Monaten.

    Usenet kann man zwar im Gegensatz zu (den meisten) Filehostern nicht umsonst nutzen, aber kann die eher geringe Gebühr tatsächlich so viel Server Storage finanzieren?
     
    Mydgard, PSC, Porco and 1 other person like this.
  9. Yaknar

    Yaknar Administrativer Support Premium Trusted User

    Joined:
    Mar 5, 2015
    Messages:
    4,800
    Likes Received:
    9,776
    Credit:
    311,867MB
    Es geht über die Menge an User und es werden definitiv auch Dateien gelöscht und die Provider gehen danach, wie aktiv die Dateien sind.
    Aber trotzdem werden die ein paar PB speichern.

    Wenn man so schaut, dass zuletzt 475 TiB pro Tag hinzukommen: https://www.newsdemon.com/usenet-newsgroup-feed-size

    Wir haben über all unserer Server eine Kapaziät von 717.79 TiB, also wir könnten so 1.5 Tage Retention speichern. Sind mit unseren paar Servern aber ja auch nicht groß.
     
    Mydgard, MrHappyFace, Porco and 2 others like this.
  10. Sorcerer

    Sorcerer Premium Serious User

    Joined:
    Nov 4, 2017
    Messages:
    91
    Likes Received:
    119
    Credit:
    30,639MB
    Achso dass Usenet auch Inaktivitätslöschungen durchführt hab ich nicht gewusst. Ich hatte es fast noch nie das ein File zuviele fehlende Artikel hatte, selbst bei Nischensachen über 8 Jahre alt, mit nur wenigen "grabs" bei der NBZ Seite. Vielleicht werden nur Files gelöscht die (fast) gar keine Downloads haben, z.B <1 pro Jahr. Bei Filehostern ist ja meistens spätestens bei <1 pro Monat Schluss ausser der Uploader zahlt.
     
  11. makikatze

    makikatze Die Katze™ Premium Trusted User Beta-Tester

    Joined:
    May 13, 2017
    Messages:
    97
    Likes Received:
    190
    Ich weiß nicht, ob es allumfassende Statistiken einiger Betreiber gibt, aber mit ein bisschen Interpolation der Daten über Cubic Splines dürften das wohl etwas mehr als 400 PiB (!) sein bei 5600 Tagen Retention, vorausgesetzt, wir gehen davon aus, dass es in die Vergangenheit zurückgehend auch immer weniger wird, was täglich hochgeladen wurde und momentan eben der Trend eher steigend ist, wobei monatlich ja auch über 15 PiB dazu kommen. Ist aber auch eine Schätzung, die keine Löschungen berücksichtigt. Trotzdem... Das muss man erst mal als Serverfarm hinstellen und bereitstellen, selbst wenn es nur die Hälfte wäre!
     
    hansi likes this.
  12. Yaknar

    Yaknar Administrativer Support Premium Trusted User

    Joined:
    Mar 5, 2015
    Messages:
    4,800
    Likes Received:
    9,776
    Credit:
    311,867MB
    400 PIB / 10 TB pro HDD / 45 HDD pro 4 HE Server = 3555 Höheneinheiten = 71 Racks nur für Server mit HDDs.
    Und fürs Frontend/Import noch ein paar mit NVMes und Switchs usw, wäre schon ein großes Rechenzentrum.

    Glaube aber die Zahl ist etwas zu hoch.

    2020 waren es 46 PB (https://commons.wikimedia.org/wiki/File:Usenet-total-storage.jpg).
    Es wird echt einiges durch Rechteinhaber und Inaktivität gelöscht und würde tippen es sind ca. 150 PB, also 26-40 Racks.

    Leider funktioniert hat binsearch nicht mehr die Info über die Newsgroups wäre aber für jeden User abrufbar, man muss "nur" alle Header herunterladen und die Size summieren. Vielleicht wenn ich mal Langeweile habe. :D
     
    MrHappyFace and pspzockerscene like this.
  13. makikatze

    makikatze Die Katze™ Premium Trusted User Beta-Tester

    Joined:
    May 13, 2017
    Messages:
    97
    Likes Received:
    190
    Ist auch nur mal rein mathematisch interpoliert. Da ist so viel Unbekanntes dabei :D
    Außerdem gibt es mittlerweile ja auch Festplatten mit mehr als 20 TB

    Aber die Usenet-Betreiber werden sich über die angekündigten 512 TB-SSDs freuen :D
     
  14. rexum

    rexum Neuling

    Joined:
    Aug 23, 2022
    Messages:
    4
    Likes Received:
    6
    Omicron (Highwinds Media) schreibt schon seit 2018 (einfach in der Wayback Machine schauen) das sie 250+ PB speichern auf ihrer Webseite.
     
    3way and makikatze like this.
  15. 3way

    3way Vollzeit-OS-Ausprobierer Premium Trusted User Beta-Tester

    Joined:
    Jul 14, 2015
    Messages:
    4,951
    Likes Received:
    7,507
    Credit:
    179,014MB
  16. Yaknar

    Yaknar Administrativer Support Premium Trusted User

    Joined:
    Mar 5, 2015
    Messages:
    4,800
    Likes Received:
    9,776
    Credit:
    311,867MB
    Klickst auf "Reseller":
    "Operating the largest NNTP platform in the world, spanning over 250+ PB, we are proud to support a strong backbone of the public’s most popular Usenet resellers."
    Dein Screenshot ist aber etwas zu alt, kam erst ein paar Monate danach.

    Aber sie haben ein US und ein NL Backbone, also die 250PB über beide Standorte
     
    MrHappyFace and 3way like this.
  17. rexum

    rexum Neuling

    Joined:
    Aug 23, 2022
    Messages:
    4
    Likes Received:
    6
    Genau. Seit November 2018 steht es dort mindestens. Das sollte heute deutlich höher liegen, wenn man bedenkt, dass diese Zahl schon einige Jahre alt ist und der Feed jedes Jahr gewachsen ist.
     
    PSC and 3way like this.
  18. rexum

    rexum Neuling

    Joined:
    Aug 23, 2022
    Messages:
    4
    Likes Received:
    6
    Es gab heute ein kleines Update der Karte. Um die Fragen zu Beantworten: Omicron (HW), Base IP und Eweka sind eigene Backbones, welche allerdings sich das gleiche Netzwerk teilen und im gleichen Rechenzentrum untergebracht sind. Sie gehören alle zu Omicron Media. Base IP hat eine deutlich schlechtere Retention als die anderen beiden operiert allerdings wie Eweka als niederländische Firma und folgt daher der NTD Takedown Prozedur. Einfach mal testen, meiner Erfahrung nach ist die Retention sogar noch etwas schlechter als bei Usenet.Farm und es gibt quasi nur ganz neue Uploads. Eweka und Omicron haben sehr ähnliche Retention (zumindest Omicron US/NL, die Anbieter wie SunnyUsenet & PureUsenet haben beschränkte Retention). Insgesamt hat Eweka am meisten und es gibt einige Uploads nur dort und bei keinem anderen Anbieter. Omicron hat allerdings auch einige (weniger) "exklusive" Uploads verfügbar.

    Giganews und NetNews gehören ähnlich wie bei Omicron Media beide zu Powerhouse Management, sind allerdings auch getrennte Backbones mit teilweise geteiltem Netzwerk. NetNews hat allerdings auch Server in Australien, an der Westküste in den USA und in der Niederlande. Bei Giganews gibt es nur US East und Deutschland (Limburg, OVH).
     
    3way likes this.
  19. Yaknar

    Yaknar Administrativer Support Premium Trusted User

    Joined:
    Mar 5, 2015
    Messages:
    4,800
    Likes Received:
    9,776
    Credit:
    311,867MB
    Gibt es eigentlich irgendwelche Beweise, dass es wirklich getrennt ist?
    Mal logisch betrachtet aus welchem Grund (Außer als Backup) sollte ich 250PB an identischen Daten mehrfach in einem Rechenzentrum speichern?
    Ich gehe sehr stark davon aus, dass die Daten einmal in NL und einmal in US gespeichert sind und das war es.
    Die Retention und andere Verfügbarkeit wird Softwareseitig implementiert sein. Die Software kann ja auch einfach zurückgeben Artikel ist nicht da, wenn die Retention abgelaufen ist, obwohl er da wäre. Genauso bei der Lösung nach NTD und DMCA, bekommt der Artikel ein Flag und dann liefert nur Omicron oder Eweka den Artikel aus. Keine Raketenwissenschaft und Softwareseitig war Highwinds schon immer sehr aktiv: https://www.highwinds-software.com/products/index.php
    Man möchte es nach außen natürlich immer aus aussehen lassen, aber wirtschaftlich macht es keinen Sinn.

    Und zu Giganews, ich würde sagen die Server bei OVH sind nur ein Cache, der häufig angefragte Artikel speichert, der Rest geht in die USA.
    Fragt man seltenere Artikel an, könnte ich es bei meinem Test an der Latenz feststellen, bis der Artikel geliefert wird.
     
    Mydgard, PSC and 3way like this.
  20. rexum

    rexum Neuling

    Joined:
    Aug 23, 2022
    Messages:
    4
    Likes Received:
    6
    Natürlich gibt es keine Beweise, man muss ihnen da schon glauben oder eben auch nicht. Mir wurde gesagt das alle Daten 3x gespeichert werden. Es kann gut sein das Storage unter den Backbones geteilt ist und der Zugriff je nach Backbone beschränkt. Ändert trotzdem nichts an dem Fakt das es einiges nur bei Eweka oder nur bei Omicron gibt.

    Ob einige Server von Anbietern nur einen Cache haben oder alle Daten lässt sich auch nur vermuten aber ist auch nicht unwahrscheinlich. Im Ende ist aber auch das recht egal solange man als User gute Geschwindigkeiten erreicht imho.
     
    Mydgard likes this.
  21. Yaknar

    Yaknar Administrativer Support Premium Trusted User

    Joined:
    Mar 5, 2015
    Messages:
    4,800
    Likes Received:
    9,776
    Credit:
    311,867MB
    Ja, das stimmt natürlich.

    Aber ich würde allen Nutzern empfehlen, bevor man sich einen Eweka und einen HW Media (Newshosting, NewsgroupNinja usw.) Account zulegt, lieber nur einen Account bei Omicron zu haben und weitere bei einem oder mehreren komplett anderen Unternehmen.
    Das sorgt dafür, dass das Usenet nicht weiter zentralisiert wird und sorgt für eine sehr gute Abdeckung, wie man an dem Screenshot aus diesem Beitrag sieht:
    https://high-way.me/threads/probleme-mit-dem-usenet.193/page-43#post-81268

    Und unser neuer Abavia Account fängt auch nochmal einiges auf, was vorher bei keinem der anderen gefunden wurde.
     
    Mydgard, Sorcerer, PSC and 5 others like this.
  22. PSC

    PSC PSC-Annahme nicht mehr möglich Premium Trusted User Beta-Tester PSC Annahmestelle

    Joined:
    May 3, 2020
    Messages:
    450
    Likes Received:
    778
    Credit:
    145,164MB
    Davon gehe ich auch aus. Fällt eine Platte in NL aus, wird sie wiederhergestellt aus dem "Backup", das in den Staaten liegt (doof wäre nur, wenn genau beide Platten kaputtgingen :D )

    Aber: Man darf nicht vergessen dass zumindest Eweka mal ein eigenständiger Betreiber war mit eigenem Backbone. Es kann sein, dass Omicron das Backbone nicht aufgelöst hat, nachdem sie Eweka gekauft haben. Das Gleiche kann ich mir auch bei Base IP vorstellen, denn ich meine, auch die wären ein eigenständiges Backbone gewesen, gehören aber seit einigen Jahren zu Omicron.

    Zur Inaktivitätslöschung: die gab es nie, denn der Unterschied zum Hoster ist immer gewesen, dass im Usenet festgelegte Aufbewahrungsfristen gelten, die der Backbone-Betreiber festlegt. Aufgrund der explodierten Feed Size (ungefähr seit der Corona-Pandemie) werden kleine Usenet-Backbones aber vor Herausforderungen gestellt, gerade weil zB die Kryptowährung Chia zusätzlich noch die Festplattenpreise in die Höhe trieb. Ich gehe davon aus, dass (auch abhängig vom Backbone-Betreiber) eine "kurze" Zeitspanne von zB 30 Tagen alles von einem Backbone-Betreiber aufbewahrt wird und dann ein Algorithmus entscheidet, was behalten wird und was nicht. Das Meiste was mittlerweile ins Usenet hochgeladen wird, ist Datenmüll.

    Die Finanzierung der Backbones erfolgt so: Usenet-Provider bezahlen die Uploader nicht. Das ist für einen Filehoster im WWW jedoch der höchste Kostentreiber. Ich schätze, 90 % ihres Profits geben Filehoster an ihre Uploader weiter. Die einzigen Provisionen im Usenet werden (und das auch nur für Affiliate-Teilnehmer, falls der Usenet-Provider überhaupt Affiliate anbietet) für tatsächliche Käufe eines Usenet-Zugangs gezahlt. Und davon profitieren nicht die Uploader, sondern meist die jeweilige Plattform, auf der sie ihre Uploads dann zugänglich machen (im Regelfall also in Usenet-Boards und Usenet-Indexern).
    Die Kommerzialisierung der Piracy, die von Rapidshare damals "erfunden" wurde und Szenegrößen wie Netload.in, MEGAUPLOAD und uploaded.to nach sich zog, ist der einzige Grund, wieso Uploader auf Filehoster setzen. Durch den höheren Monatsbeitrag bei Filehostern finanziert man halt auf Umwegen auch die Uploader. Im Usenet gibt es so etwas nicht (und gab es auch vor dem Rapidshare-Geschäftsmodell nie) - die Uploader tuns sozusagen aus "Nächstenliebe"; sie sind selbst noch mit unkommerziellen Filesharing/Piracy groß geworden.

    Ich denke auch, dass der klassische "Uploader" mittlerweile eine Ausnahme ist. Die meisten Usenet-Foren bzw -Indexer setzen auf automatisiertes Posting. Das läuft so: wer ein Release veröffentlicht (im Regelfall sind es Releasegroups wie zB EXQUiSiT und nur selten Einzelpersonen, die dann im Regelfall "iND" an den Releasetitel anhängen) macht das z.B über P2P-Netzwerke oder steht mit Personen der Piracyscene in Kontakt. Letztendlich landen die meisten Releases früher oder später auf sogenannten Dumps (engl für Lager/Depot).

    Wer schon mal dank einer Suchfunktion in einem Piracy-Board zB einen Film mit zig Releases von verschiedensten Groups gesehen hat, wird früher oder später den Unterschied feststellen: die jeweiligen Encoding-Parameter stellen meist den "Wiedererkennungswert". Encoding-Parameter nenne ich die Qualitätseinstellungen des Release. Manche Releasegroups veröffentlichen eine komplette DVD oder BluRay (zu erkennen daran dass im Releasetitel COMPLETE steht bzw UNTOUCHED). Andere legen Wert auf eine kleine Dateigröße (Spielfilm bei EXQUiSiT hat roundabout 5GB). Andere sagen sich wohl, eine UNTOUCHED-BluRay (häufig als ISO damit der Anwender sie selbst wieder auf BluRay-Rohlinge brennen kann) beherbergt viel zu viel Datenmüll (zumal physische Datenträger für einzelne Filme heutzutage so gut wie keine Rolle mehr spielen dürften) und nutzen Komprimierungsverfahren wie zB x264 oder x265, um bei gleichbleibender visueller Qualität eine zB von 80GB geschrumpfte BluRay effektiv auf 20GB zu bringen (zB HDC und HDS sind dafür bekannt). Handelt sich dann im Regelfall um eine mkv-Datei. Bekanntestes Komprimierungsverfahren bei Audio ist übrigens MP3 (kennt, denke ich mal, so ziemlich jeder)...

    Bevor ich es vergesse zu erklären, was Dumps sind: es sind einfach Server mit einer Vielzahl an Festplatten, die sozusagen eine zentrale Sammelstelle für die Uploader darstellt. Soll heißen: der Betreiber eines Dumps sorgt dafür, dass neue Releases ihren Weg auf den Dump finden (zB weil er Kontakt zu gewissen Releasegroups hat oder über Kontaktpersonen aber das meiste dürfte er einfach aus P2P-Netzwerken geliefert bekommen). Uploader mit einem Zugang zu einem solchen Dump laden die Releasedateien dann runter. Die Dateien sind meist in relativ kleine Archive gepackt (zB 100 MB-Parts, mit Dateiformaten wie r01 r02). Ein Uploader, der seinen "Job" vor allem aus Überzeugung macht erkennt man daran, dass er das "Original"-Archiv nach dem Download entpackt und anschließend mit seinen Merkmalen neu packt (z.B. 1GB-Parts mit seinem Archivpasswort, Dateiformat dann idR part001.rar usw). Ein Uploader, der seinen "Job" aus finanziellen Gründen macht, würde sich die Mühe mit dem Entpacken nicht machen sondern die bestehenden Original-Archivparts runterladen und direkt wieder zu einem Filehoster hochladen. Und dann gibt es noch so ein Mittelding, was ich auch schon oft im Usenet hatte: der Uploader erstellt zwar ein RAR-Archiv, füllt dieses aber mit den Original-Archivparts (die sind dann sozusagen doppelt verpackt, sodass man als Downloader (auch Leecher genannt) zwei Mal entpacken muss).

    Tja, und da so ein Dump (der Zugriff auf so ein Dump erfolgt nicht über http:// sondern meist über ftp://) automatisiert läuft, sind die großen Uploader ebenfalls auf den Zug der Automatisierung gesprungen: die haben also ein Programm entwickelt, das bestimmte Quellen wie eben einen oder mehrere Dumps "überwacht", neue Releases gleich runterlädt und dann mit den zuvor festgelegten Einstellungen auf ebenfalls festgelegte Ziele (zB Rapidgator und Ddownload) hochlädt. Auch einprogrammiert: der Forenbeitrag, der weitere Informationen aus maschinenlesbaren Quellen (wie der Internet Movie Database IMDb) abruft (z.B. wird oft ein Klappentext in den Forenbeitrag eingefügt).

    Man sieht: ein Forum im Usenet braucht zwingend eigene Server, über die die Postings vollautomatisiert erledigt werden. Uploader, die so eine Arbeit ohne Gegenleistung erledigen, gibt es heutzutage so gut wie keine mehr (einzige Ausnahme sind wirklich die Uploader, die das aus "sozialen" Gründen machen bzw als Hobby die im Eigentum befindlichen BluRays oder auch Musikalben anbieten). Die Finanzierung dieser Foren erfolgt meist durch freiwillige Spenden der Mitglieder. Das Hosting eines Forums ist für wenige € im Monat zu haben, das Teure ist halt der Unterhalt eines automatischen Upload-Bots, denn der braucht einen leistungsfähigen Server mit großer Bandbreite. Der Zugang zu den Dumps übrigens ist "non-public". Prinzipiell kann zwar jeder einen Zugang (mind. 15 € mtl) kaufen, aber ohne die richtigen Leute zu kennen, kommt man gar nicht erst an einen Zugang. Auch wenn es im Usenet einige Kommerzialisierungsversuche gab (zB der Usenet-Provider SSL-News, der beim ehemaligen Forum "Town" stark beworben wurde, teilweise wurde gesagt, dass Uploads nur über SSL-News verfügbar sein, obwohl Exklusivvereinbarungen im Usenet als "No-Go" gelten, denn das wesentlichste Merkmal des Usenets ist nun mal der untereinander stattfindende Datenaustausch) gehörte wohl den Forenbetreibern. Town.ag hieß das Board meines Wissens und war so ziemlich das größte im deutschsprachigen Raum. Aber: Geld hinterlässt Spuren und die Ermittler sind den Betreibern wohl auf die Schliche gekommen. Mit dem "Follow the money" haben die Ermittler ja schon zig Filehoster hochnehmen lassen.

    Eine Quintessenz: das Usenet ist, so würde ich es bezeichnen, genossenschaftlich organisiert. Die Beibehaltung der Synchronisierung unter allen Backbones gehört wohl zum guten Ton, auch wenn die einzelnen Backbones gewinnorientiert handeln. Genau aus dem Grund wird die Monopolbildung von Highwinds bzw dem Investor Omicron wird daher schon seit Jahren von vielen "alten Hasen" sehr kritisch gesehen. Omicron ist der mit Abstand größte Anbieter und hat daher auch die größte Marktmacht. Dass der Eigentümer von gleich mehreren Backbones mit jeweils auch der längsten Retention (und für viele ist diese, die bis August 2008 reicht nun mal ausschlaggebend) seine Monopolstellung nutzt, und die Synchronisierung mit seinen kleineren Konkurrenten bepreist oder gar ganz beendet wird, so resultiere ich, immer wahrscheinlicher.

    Der Grund liegt vor allem in der enormen Kostensteigerung, die aus der Vervielfachung der Feed Size in nur wenigen Jahren resultiert (475 TiB/Tag, in TB umgerechnet: 522). Usenet Newsgroup Feed Size - NewsDemon Usenet Newsgroup Access
    Das Usenet spielte ursprünglich als Diskussionsplattform eine Rolle, seit Aufkommen von Foren im WWW wird es de facto nur noch für den Austausch von Daten und nicht mehr für den Austausch von Texten genutzt. Die Daten sind zwar öffentlich, allerdings mutmaße ich, dass wohl sehr viele das Usenet mittlerweile als kostenlose Backup-Möglichkeit nutzen. Obwohl alle Daten von jedermann heruntergeladen werden können, scheinen einige Füchse ihre Backups einfach verschlüsselt hochzuladen. Ich rate zumindest bei persönlichem Daten (zB Zeugnisse oder Abschlüsse) dringend von einem Backup ins Usenet ab, egal wie stark die Verschlüsselung heutzutage ist; man weiß nicht was in 10 Jahren digital alles möglich werden wird, geschweige denn von 20 oder sogar noch mehr Jahren.

    Da das Daten-Auslagern ins Usenet schon seit einigen Jahren Überhand genommen zu haben scheint und die Backbone-Betreiber keinen Vorteil sondern nur höhere Kosten tragen müssen, wird mit Sicherheit vieles von einem Algorithmus wieder gelöscht. Das würde ich dann aber eher als Spamfilter werten und nicht als Inaktivitätslöschung. Aufbewahrt wird (natürlich wird das nicht öffentlich geäußert durch die Betreiber) nur das, was auch tatsächlich von anderen wieder heruntergeladen wird. Ob nur ein einziger DL erforderlich ist, damit der Algorithmus entscheidet, dass es sich nicht um Spam handelt, wäre mal interessant für mich zu wissen :D Wenn der Algorithmus nämlich zu einem späteren Zeitpunkt noch mal überprüfen soll, ob es sich für den Backbone-Betreiber lohnt, eine Datei zu behalten, würde ich es dann doch als Form der Inaktivitätslöschung ansehen, denn effektiv gesehen entscheidet der Algorithmus dann ja nur zwischen "Löschen" und "Löschfrist verlängern".
     
    Mydgard, Jacky, 3way and 1 other person like this.
  23. Yaknar

    Yaknar Administrativer Support Premium Trusted User

    Joined:
    Mar 5, 2015
    Messages:
    4,800
    Likes Received:
    9,776
    Credit:
    311,867MB
    Das ließe sich ja sowieso auf anderer Ebene mit Redundanz, Raid, Erasure Encoding lösen. Eventuell kommt daher auch das 3 mal gespeichert, da das für verteilten Speicher eine valide Replikationsstrategie ist.
    Und bei der Größe ist es nicht ein könnte eine HDD ausfallen, sondern es ist ein Fakt, dass HDDs ausfallen werden.

    Aber es gibt sie jetzt, seitdem die Feed Size so explodiert ist also ein paar Jahre und Löschung durch Rechteinhaber gab es auch schon immer.
    Und ja, man könntest auch Spamfilter als bezeichnen und unterschiedliche Betreiber gehen damit anders um bzw. Usenet.farm sagt explizit, dass sie einen Algorithmus verwenden, der nur relevantes behält, da ist es Inaktivitätslöschung.

    Die passiert im Usenet Bereich einfach auf einem anderen Level, nämlich über die Indexer, die Geld für das bereitstellen der NZBs (somit die Links zu den Dateien) annehmen. Der eigentliche Usenet Zugang ist getrennt davon, was es finde ich zum schöneren System macht, da es mehr Wettbewerb geben kann, da die Provider die fast gleichen Daten bereitstellen und die Indexer auch Konkurrenzdruck haben.

    Du glaubst die Uploader bekommen von den Indexern nichts? :D
    Auch wenn da sicher viel Automatisierung und ganze Organisationen hinter stehen.

    Und im OCH Bereich werden die Inhalte auch meiste von den selben Quellen genommen, viel automatisiert, nur das der Zahlungsstrom direkter/einfacher zu erkennen ist und der Einstieg ist einfacher.

    Im Usenet Bereich wird dazu aufgerufen keine RAR Uploads mehr zu verwenden, da es nur den Aufwand für den Endnutzer erhöht und gesplittete RAR Archive keinen Vorteil eher noch einen Nachteil beim Reparieren bringt.
    Verschlüsselung braucht es nicht, da alle Metadaten komplett randomisiert generiert werden und man nur durch die Informationen auf der NZB Datei an die Ursprüngliche Datei + PAR Dateien zu Wiederherstellung, falls einzelne Artikel verloren gegangen sind, kommt.
    Details: https://github.com/animetosho/Nyuu/wiki/Stop-RAR-Uploads
     
    Jacky and Sorcerer like this.
  24. PSC

    PSC PSC-Annahme nicht mehr möglich Premium Trusted User Beta-Tester PSC Annahmestelle

    Joined:
    May 3, 2020
    Messages:
    450
    Likes Received:
    778
    Credit:
    145,164MB
    Ja, die bekommen sicherlich nichts (welcher Indexer hat denn überhaupt noch Uploader? Gerade bei Indexern ist es doch von Anfang an darauf ausgelegt, dass der Index aus den Releaseuploads vollautomatisch gefüllt wird).
    Bei BoerseBZ und TO haben die Uploader auch nichts vom Board abbekommen, im Gegensatz zum Usenet aber etwas vom Hoster. Die Preise für einen Usenet-Zugang sind zu gering, als dass sie noch Marge für Uploader über hätten. Man muss bedenken: wer selbst nicht auf Automatisierung setzt sondern als "kleiner Uploader" alles per Hand macht bzw gemacht hat, wird dort nicht mehr als ein Taschengeld verdienen können.

    Aber wie schon gesagt: mit SSL-News gab es auf Board-Ebene einen eigenen Usenet-Provider. Ob dann auch Uploader auf TOWN damals beteiligt wurden (außer es wurde über ihren Ref-Link ein Zugang bei SSL-News gekauft) mag ich bezweifeln, viel mehr gehe ich davon aus, dass sich die Betreiber von Town alles in die Taschen gesteckt haben.
     
    BILD likes this.
  25. Yaknar

    Yaknar Administrativer Support Premium Trusted User

    Joined:
    Mar 5, 2015
    Messages:
    4,800
    Likes Received:
    9,776
    Credit:
    311,867MB
    Mittlerweile so gut wie jeder. Früher funktionierten Indexer so, dass die den Usenet Feed nach Releases durchsucht haben und diese Indexiert / zusammengefasst haben und angezeigt haben.
    Durch das verwenden randomisierter Metadaten ist das nicht mehr möglich und die Betreiber der Indexer sind entweder selbst die Uploader (bekommen die Bezahlung über die Indexer Plattform durch die Jahresbeiträge der Nutzer), sie beauftragen gut in der Scene vernetzte Uploader oder Releasegroups, zahlen denen sicher für die Uploads/Dienstleistung oder schließen Kooperationen mit Usenet Boards um deren Inhalte zu nutzen. z.B. (newzbay <-> Sky of Usenet, SceneNZBs <-> House-of-Usenet), das passiert auch sicher nicht aus Nächstenliebe.
    Kleine Uploader wie z.B. in den Foren haben nichts davon das ist korrekt, sie sind einfach nicht tief genug vernetzt.
    Bei vielen Indexern ist es auch möglich Uploader zu werden, und man muss dann halt verhandeln bzw. sich beweisen.
     
    Mydgard and BILD like this.