Como o Gandalf Wizard postou aquele link anteriormente, o problema não é bo google, mas sim de como as Linguagens de Programação interpretam os números. Por exemplo 1 é na verdade: 1.00000000000000000000000000000000....1, por exemplo, daí quando fizermos as operações de subtração o número encontrado vai tender a zero, mas na realidade não vai ser zero... Esta é uma explicação matemática e computacional.
1 é um número inteiro, já 1.0000000 é um número de ponto flutuante (decimal)
Se você tentar subtrair um número decimal de outro inteiro, não funciona porque eles são diferentes. O algoritmo nao considera a possibilidade de ter alguma coisa depois do ponto do número inteiro. Por isso que a linguagem de programação transforma para 1.0000000.
9 Comentários:
???????????????
Por
Anônimo, Às
12 dezembro, 2005
Que bug ein? Impressionante! Alguém teria alguma explicação?
Por
Joe Edman, Às
13 dezembro, 2005
Pelo menos tende a zero =D
Por
Dherik, Às
13 dezembro, 2005
mesmo vc escrevendo como uma expressão tipo (1-0.9)-0.1 o resultado é o mesmo....
prova que todo gigante possui um ponto fraco, e quem diria que o do Google seria uma simples expressão matemática!?
Por
Anônimo, Às
13 dezembro, 2005
1 - 0.9 - 0.1 + 0.00000002 = 2.0 × 10-8
!? afinal.. ele sabe ou não?
Por
Anônimo, Às
13 dezembro, 2005
Há uma explicação desse problema nessa página http://blog.mustap.com/2005_12_12_google-cant-substract.
[]'s
Por
Anônimo, Às
13 dezembro, 2005
Como o Gandalf Wizard postou aquele link anteriormente, o problema não é bo google, mas sim de como as Linguagens de Programação interpretam os números.
Por exemplo 1 é na verdade: 1.00000000000000000000000000000000....1, por exemplo, daí quando fizermos as operações de subtração o número encontrado vai tender a zero, mas na realidade não vai ser zero...
Esta é uma explicação matemática e computacional.
Por
Anônimo, Às
13 dezembro, 2005
como sao burros.....q q custa falar q 1=1 em vez de 1=1.000000000000...???
Por
Anônimo, Às
13 dezembro, 2005
Chancer,
1 é um número inteiro, já 1.0000000 é um número de ponto flutuante (decimal)
Se você tentar subtrair um número decimal de outro inteiro, não funciona porque eles são diferentes. O algoritmo nao considera a possibilidade de ter alguma coisa depois do ponto do número inteiro. Por isso que a linguagem de programação transforma para 1.0000000.
Por
Anônimo, Às
13 dezembro, 2005
Postar um comentário
Assinar Postar comentários [Atom]
<< Página inicial