Datensätze

Still in use?

Moderator: Moderatoren

Antworten
angelo
Rekursionen-Architekt
Rekursionen-Architekt
Beiträge: 196
Registriert: Mo, 24. Apr 2006 10:52

Datensätze

Beitrag von angelo »

Hallo zusammen,

habe ein größeres Clipper-Programm vor längerem erstellt und die Datenbanken unter dbase3+.

Möchte nun gerne wissen wieviel Datensätze man in den einzelnen
Datenbanken erstellen kann ohne das es Probleme gibt.

Danke im voraus für die Antwort.

Gruß aus Oberschwaben
angelo
Benutzeravatar
Manfred
Foren-Administrator
Foren-Administrator
Beiträge: 21186
Registriert: Di, 29. Nov 2005 16:58
Wohnort: Kreis Wesel
Hat sich bedankt: 210 Mal
Danksagung erhalten: 67 Mal

Beitrag von Manfred »

Hi,

waren das nicht irgendwo 2 Milliarden pro DB, bzw. solange die DB dabei nicht über 2GB groß wurde?
Gruß Manfred
Mitglied der XUG Osnabrück
Schatzmeister des Deutschsprachige Xbase-Entwickler e.V.
großer Fan des Xbaseentwicklerwiki https://wiki.xbaseentwickler.de/index.p ... Hauptseite
Doof kann man sein, man muß sich nur zu helfen wissen!!
Benutzeravatar
Jan
Marvin
Marvin
Beiträge: 14651
Registriert: Fr, 23. Sep 2005 18:23
Wohnort: 49328 Melle
Hat sich bedankt: 21 Mal
Danksagung erhalten: 88 Mal
Kontaktdaten:

Beitrag von Jan »

Naja, kommt drauf an was man als Problem bezeichnet.

Rein theoretisch kann man vielleicht 2 Mrd. Datensätze verarbeiten (ich habe keine Ahnung wo die Grenze liegt). Aber will man sich das mit einer .dbf wirklich antun? Ich denke das wäre auch schon ein Problem. Mindestens ein Performanceproblem, denn .dbf ist dafür einfach nicht geschaffen. Ab ein paar Mio. ist meines Wissens Schluß.

Jan
Benutzeravatar
Martin Altmann
Foren-Administrator
Foren-Administrator
Beiträge: 16508
Registriert: Fr, 23. Sep 2005 4:58
Wohnort: Berlin
Hat sich bedankt: 111 Mal
Danksagung erhalten: 48 Mal
Kontaktdaten:

Beitrag von Martin Altmann »

Hallo Manfred,
letzteres.
Ausserdem gibt es noch Beschränkungen in der Anzahl der Felder (255? Kann das sein?) pro Datensatz.

Viele Grüße,
Martin
:grommit:
Webseite mit XB2.NET und ausschließlich statischem Content in Form von HTML-Dateien: https://www.altem.de/
Webseite mit XB2.NET und ausschließlich dynamischem Content in Form von in-memory-HTML: https://meldungen.altem.de/

Mitglied der XUG Osnabrück
Vorsitzender des Deutschsprachige Xbase-Entwickler e. V.
Benutzeravatar
Manfred
Foren-Administrator
Foren-Administrator
Beiträge: 21186
Registriert: Di, 29. Nov 2005 16:58
Wohnort: Kreis Wesel
Hat sich bedankt: 210 Mal
Danksagung erhalten: 67 Mal

Beitrag von Manfred »

Hi Martin,

255 unter Clipper stimmt.

@Jan

ich weiß auch nicht wo die Schmerzgrenze liegt, aber 2 Milliarden stand irgendwie mal in der Anleitung. Allerdings 1 Mio würde ich jetzt nicht als Maß der Dinge sehen, da sollten schon mehr drin sein.
Gruß Manfred
Mitglied der XUG Osnabrück
Schatzmeister des Deutschsprachige Xbase-Entwickler e.V.
großer Fan des Xbaseentwicklerwiki https://wiki.xbaseentwickler.de/index.p ... Hauptseite
Doof kann man sein, man muß sich nur zu helfen wissen!!
Benutzeravatar
brandelh
Foren-Moderator
Foren-Moderator
Beiträge: 15695
Registriert: Mo, 23. Jan 2006 20:54
Wohnort: Germersheim
Hat sich bedankt: 65 Mal
Danksagung erhalten: 33 Mal
Kontaktdaten:

Beitrag von brandelh »

Hallo,

DBF Dateien können wegen dem LOCK-Offsett nur 2 GB groß werden (Standardlocking nur 1 GB). Spätestens ab Clipper 5.x waren 1024 Byte per Record möglich, wodurch sich die maximale Anzahl von Datensätzen aus Satzlänge (plus 1) und Headerlänge abhängt.

Solange die Daten hauptsächlich von gelesen werden oder von wenigen Stationen bearbeitet werden sind große Dateien auch im Netzwerk kein Problem, aber wenn z.B. mehr als 20 (natürlich von Hardware und Netzwerk abhängig) im Akkord :!: Datensätze ändern, anlegen und abfragen wird das Locking der Indexe zum Flaschenhals. Mit Autolocking kann man dann noch was rauskitzeln, aber jeder Netzwerkwackler oder Rechnerabsturz wird zur Katastrophe. Bei vielen Anwendern im Netzwerk sind SQL Datenbanken eindeutig die bessere Wahl.

Wir haben zwar auch etwa 20 bis 30 Anwender, die mit unseren Programmen permanent arbeiten, aber die Erfassung der Daten dauert hier Zeit (rechtliche Problematik, kein Massengeschäft), die Eingabefelder sind im RAM zwischengespeichert, sodass meist einige Minuten zwischen den einzelnen Speicherungen je Arbeitsplatz vergehen, so hat man keine Probleme.
Gruß
Hubert
Antworten