>>159964>Aber das, was du willst geht nicht, ohne >>159955 >dass man direkt n-k-Reed-Solomon, mit Änderbarkeit von n und k, und mit Anschnurfunktionalität bräuchte
Wie du geschrieben hast, für die kleinen RAID-Stufen muss man noch nicht n-k-Reed-Solomon-Kots draufhauen.
Das "anschnur" wäre auch noch optional.
>>159965>Deine Idee, eine neue Platte zum existierenden vdev hinzuzufügen, ohne Parität hinzuzufügen, das kannst du vielleicht ein, zwei mal machen. Danach kannst du dir das RAID auch gleich sparen.
Naja, wenn man sich an die im Netz rumdümpelnden Empfehlungen zur maximalen Plattenzahl hält, gibt es zumindest:
1+1 → 2+1 → 3+1 → 4+1 → 5+1 → 6+1
2+2 → 3+2 → 4+2 → 5+2 → 6+2 → 7+2 → 8+2
3+3 → 4+3 → 5+3 → 6+3 → 7+3 → 8+3 → 9+3 → 10+3 → 11+3 → 12+3
Das sind schon eine Menge Aufrüstfälle (und das ist nur für die "empfohlene" Maximalzahl). Man denke mal daran, welche NAS-Geräte im Netz verkauft werden.
Aber auch abseits von diesem häufigen Nutzfall bringt Felix im "Enterprise"-Fall mal den Elefant im Raum auf den Punkt:
Ein Zettabyte an Daten zu speichern war das damalige Mem. Mehr als RAIDz3 zu bieten leider nicht.
Dass man für ein Zettabyte an Daten leider mehr als RAIDz3 braucht, und RAIDz3 auf entsprechend sehr vielen vdevs am Ende eine Ausfallwahrscheinlichkeit von ~1 bedeutet, ist halt mathematisch leider so. Damit kriegt man bei ZFS auch im "Hyperscaler"-Fall Probleme. "ZFS" ist schon vom Namen her (1 ZETTAbyte an Daten!1) wegen des gleichzeitigen Featuremangels (nur maximal RAIDz3) mit sich selbst inkonsistent.
Bei ZFS gibt es auch ein sich immer mehr entwickelndes Zielgruppenproblem:
*Auf der einen Seite die Hyperscaler, welche wegen der obigen Problematik gar nicht erst mit ZFS anfangen brauchen, und ihre eigene Lösung implementieren.
*Auf der anderen Seite die Unternehmen, bei denen
**sich im Rahmen des "big data"-Hypes der Jahre 2010-2020 herausstellte, dass die allergrößte "big data"-Datenbank dann doch nur 10 TiB groß war [0],
**oder so groß sind, dass sie das gar nicht mehr inhaus machen, sondern es auf den obigen Hyperscaler auslagern.
Die Schere der Datenmenge, die man speichern muss, geht dazwischen auseinander. Dazu kommt noch, dass die Festplatten immer größer werden, und man damit immer weniger Platten braucht. Für ~600 Euro gibt es 30-TiB-Platten (CMR) [1]. Herzlichen Glückwunsch, 99,9 % aller Nutzfälle im "Enterprise" sehen nun wie beim Heimanwender aus.
[0] https://motherduck.com/blog/big-data-is-dead/
[1] https://www.hardwareluxx.de/index.php/artikel/hardware/storage/66467-seagates-mozaic-3-im-test,-hamr-bei-exos-m-und-ironwolf-pro-mit-30-tb.html