Hallo,
die maximale Feldanzahl je DBF habe ich auch noch nicht ausprobiert, aber schon unter Clipper waren mehr als 1000 erlaubt (soweit ich mich erinnere).
Das Problem sind die 2 GB (oder 4GB) Gesamtdateigröße. Denn diese geteilt durch die Satzlänge ergibt die maximale Satzanzahl.
Dass die Handles in einem 32 Bit System ein Problem darstellen glaube ich nicht, denn die dürften ein LONG INT Datentyp sein.
DAS Problem was ich sehe sind eindeutig die Probleme mit vielen offenen Indexdateien und Relationen.
Eine Bewegung in einer der führenden Dateien zieht dann einen Rattenschwanz an Festplattenzugriffen nach sich, um die abhängigen Dateien zu syncronisieren.
JEDER PC der abstürzt reist zumindest theoretisch alle Indexe in den Abgrund. Der Reindex wird dann ein SPASS !
Zusätzlich stellt sich mir die Frage der Wartbarkeit und wie sind die Daten normalisiert ?
Meine größte Datei hat etwa 119 Felder, Header() = 3778, RecSize() = 1644, LastRec() = 319929.
Für eine sequenzielle Auswertung durch alle Sätze und Felder braucht mein einzelner Rechner lokal etwa 20 Minuten.
Wenn ich mir vorstelle, dass diese von z.B. 100 PCs übers Netzwerk konkurierend mit Indexen verwaltet werden soll,
da habe ich schon Zweifel ob die Performance ausreichen würde. Wenn du nun 10 oder 100 solcher Dateien mit Relationen und Indexen nimmst,
dafür wollte ich nicht den Kopf hinhalten !
Ich denke solche Dimmensionen benötigen einen sauberen Datenbankserver und einen Datenbankadministrator der sich auskennt
Aber wenn dich die max Dimmensionen interessieren, dann baue ein Testprogramm, dass Dateien mit 500, 1000, 1500 Felder etc. erstellt.
Sobald es kracht kennst du die max Feldzahl je Datei. Danach generiere 2 GB Dateien und duppliziere sie. Eine Festplatte wird mit der DBFDBE sicher
bald zu langsam sein, daher gibt es ja Datenbankserver, die ganz andere Zugriffsmöglichkeiten haben als wir im Einzelzugriff.