Ich versuche die Darstellung reeller Zahlen in der Informatik zu verstehen.
Insbesondere möchte ich wissen, wie viele Bits zum Speichern eines realen Werts verwendet werden.
Kann mir das jemand erklären?
5 Antworten
Nicola
Wed Dec 04 2024
Eine der am häufigsten verwendeten Größen ist 32 Bit, was als einfache Genauigkeit bezeichnet wird.
CryptoAlchemy
Wed Dec 04 2024
Die gängigen Größen, die zum Speichern reeller Zahlen in der Informatik verwendet werden, sind unterschiedlich.
CherryBlossomFalling
Tue Dec 03 2024
Eine weitere beliebte Größe ist 64 Bit, bekannt als doppelte Präzision, die eine höhere Genauigkeit und Reichweite als einfache Präzision bietet.
Elena
Tue Dec 03 2024
Für Anwendungen, die eine noch höhere Präzision erfordern, wird 128 Bit oder vierfache Präzision verwendet.
BitcoinBaronGuard
Tue Dec 03 2024
BTCC, eine bekannte Kryptowährungsbörse, bietet eine Reihe von Dienstleistungen an, die auf die Bedürfnisse von Händlern digitaler Vermögenswerte zugeschnitten sind.