[Calc] profondeur de calcul

Bonjour,

je saisis l'interrogation citée ci-dessous et la réponse apportée pour poser une question de fond.

Pour quelle raison tous les chiffriers modernes limitent-ils leurs calculs à une profondeur de 15 décimales ?
Mon interrogation se fonde sur un exemple que j'ai utilisé jadis sous une version antédiluvienne —Framework, un logiciel dit "intégré" dont le tableur savait calculer sur 64 décimales.

Mes maigres connaissances techniques ne me permettent pas de comprendre seul.
Comment la puissance de calcul des machines a-t-elle pu évoluer dans des proportions considérables, sans que les logiciels aient vu dépasser cette limitation ?

Cette limitation peut-elle amener les utilisateurs aux besoins les plus "pointus" à renoncer à l'usage d'un tableur ?

Merci

Bonjour,

De : lutch [mailto:lutch@free.fr]
Envoyé : samedi 18 décembre 2010 11:17
Objet : [fr-users] [Calc] profondeur de calcul

je saisis l'interrogation citée ci-dessous et la réponse apportée pour
poser une question de fond.

Pour quelle raison tous les chiffriers modernes limitent-ils leurs
calculs à une profondeur de 15 décimales ?
Mon interrogation se fonde sur un exemple que j'ai utilisé jadis sous
une version antédiluvienne —Framework, un logiciel dit "intégré" dont le
tableur savait calculer sur 64 décimales.

Mes maigres connaissances techniques ne me permettent pas de comprendre
seul.
Comment la puissance de calcul des machines a-t-elle pu évoluer dans des
proportions considérables, sans que les logiciels aient vu dépasser
cette limitation ?

Cette limitation peut-elle amener les utilisateurs aux besoins les plus
"pointus" à renoncer à l'usage d'un tableur ?

Les nombres sont mémorisés sous forme de réels dits double précision sur 8
octets (dans des temps anciens où la mémoire était rare et chère on
utilisait des single sur 4 octets). Ceci limite la précision que l'on peut
obtenir et qui est largement suffisante dans la plupart des cas.
Je n'ai jamais utilisé Framework, mais quand tu parles de 64 décimales,
es-tu sûr qu'il s'agit bien de nombre significatifs, car le stockage sur 8
octets correspond à 64 bits).

C'est donc le fonctionnement "classique", on peut aller au-delà avec
d'autres outils, mais avec un tableur ?
Peut-être quelqu'un a-t-il une réponse ?

Bonne journée.

Michel

Bonjour,


Les nombres sont mémorisés sous forme de réels dits double précision sur 8
octets (dans des temps anciens où la mémoire était rare et chère on
utilisait des single sur 4 octets). Ceci limite la précision que l'on peut
obtenir et qui est largement suffisante dans la plupart des cas.
Je n'ai jamais utilisé Framework, mais quand tu parles de 64 décimales,
es-tu sûr qu'il s'agit bien de nombre significatifs, car le stockage sur 8
octets correspond à 64 bits).

De mémoire oui, on avait les 64 décimales visibles à l'écran.
À l'époque, quand on avait eu notre premier poste avec Excel, le technicien qui développait nos programmes avait été piégé sur certains calculs, faux sous Excel, en raison des arrondis.
Sous Framework hélas, nous n'avions pas un grapheur digne de ce nom.
Je ne saurais en dire plus, les détails sont bien enfouis dans ma mémoire désormais…

C'est donc le fonctionnement "classique", on peut aller au-delà avec
d'autres outils, mais avec un tableur ?
Peut-être quelqu'un a-t-il une réponse ?

Bonne journée.

Michel

Bonne journée

Je profite de la discussion : Dans mon cas, j'essaie de concevoir une feuille Calc qui explique le fonctionnement de ces nombres réels et leur stockage en machine. Or, 15 décimales, c'est trop petit. Je pensais que la notation scientifique permettait de s'affranchir de cette limitation.

C'est donc le fonctionnement "classique", on peut aller au-delà avec
d'autres outils, mais avec un tableur ?
Peut-être quelqu'un a-t-il une réponse ?

Bonne journée.

Michel

Bonne journée

Je profite de la discussion : Dans mon cas, j'essaie de concevoir une feuille Calc qui explique le fonctionnement de ces nombres réels et leur stockage en machine. Or, 15 décimales, c'est trop petit. Je pensais que la notation scientifique permettait de s'affranchir de cette limitation.

  openoffice - liboo affichent 22 caractères dans une cellule, mais si on lui demande le calcul de 1/3 on obtient l'affichage suivant :
0,333333333333333000000
car les calculs sont faits sur 15 chiffres significatifs

Gnuméric fait un peu mieux :
0,333333333333333314829616256247
puisqu'il affiche 30 chiffres, il fait ses calculs sur 15 chiffres significatifs et fait mal le 'ménage' car pour les suivants 314829616256247 il écrit tous ce qu'il trouve dans la mémoire !

Les tableur "bureautiques" n'ont sans doute pas besoin d'une précision plus grande et on trouvera partout des performances.

Pour une précision plus grande il faut utiliser un "tableur" lié à des ouils de calculs plus performants, c'est le cas de Xcas qui possède un tel tableur :
0,33333333333333333333333333333333333333332
pour le calcul de 1/3 avec 40 chiffres significatifs, et on peut augmenter le nombre de chiffres significatifs.

la question de la notation scientifique ne change rien au problème : On peut calculer sur des nombres très grand mais avec une précision de 15 chiffres significatifs :
quand on écrit 5e21 on est pas à l'abri d'une erreur d'un million !

hgrac

Bonjour,

Est-ce que quelqu'un peut me citer un cas pratique où on a vraiment
besoin dans un tableur de plus de 15 chiffres significatifs ?

Il y a des logiciels pour faire des calculs en précision arbitraire,
pourquoi faudrait-il introduire cela dans un tableur ?

Bonne fin de journée
JBF