Ir al contenido

División por cero

De Wikipedia, la enciclopedia libre
Esta es una versión antigua de esta página, editada a las 00:33 17 ene 2020 por Jkbw (discusión · contribs.). La dirección URL es un enlace permanente a esta versión, que puede ser diferente de la versión actual.
Representación gráfica de la función y = 1/x. Cuando x «tiende» a 0+, y se «aproxima» a más infinito.

En matemáticas, la división entre cero es aquella división en la que el divisor es igual a cero. En aritmética y álgebra, es considerada una «indefinición» o «indeterminación» que puede originar paradojas matemáticas.

En los números naturales, enteros y reales, la división entre cero no posee un valor definido, debido a que para todo número , el producto , por lo que el 0 no tiene inverso multiplicativo. En otros cuerpos matemáticos, pueden existir divisores de cero, sin embargo, estos aparecen cuando el cero es el dividendo, no el divisor.

El problema surgió en los años 650, cuando en Indien se comenzó a popularizar el uso del cero y los números negativos. El primero en aproximarse al planteamiento de este problema fue el matemático indio Bhaskara I, quien escribió que , en el siglo VII.[1]

Indefinición de la división por cero y su diferencia con una indeterminación

En análisis matemático

Desde el punto de vista del análisis matemático, la indefinición de una división por cero puede estudiarse mediante el concepto de límite. Supongamos que tenemos la siguiente expresión:

donde

Entonces, para analizar el valor de , se puede utilizar una aproximación del límite, por el lado positivo:

Y por el lado negativo:

Cuando el valor de «tiende» a cero, alcanza un valor inmensamente grande (positivo o negativo).

Se lee: cuando «tiende» a cero, se «aproxima» a infinito.

La expresión indica que se trata de una indefinición.

La división se puede definir también como sustraer repetidamente al número divisor del número dividendo hasta alcanzar un resto cero. La cantidad de veces que se sustrae al número divisor del número dividendo hasta alcanzar un resto cero, es igual al cociente de la división.

Al intentar dividir un número (por ejemplo 2) entre cero ocurre lo siguiente:

2 - 0 = 2 - 0 = 2 - 0 = 2 - 0 = 2... (nunca se alcanza un resto cero aunque 0 se sustraiga infinitas veces de 2). Por lo tanto, la división no es posible.[2]

Informática

Una división por cero es en informática, y particularmente en programación, considerada como un clásico error lógico.

Puesto que muchos algoritmos informáticos clásicos de división usan el método de restas sucesivas, al ser el divisor cero, la resta como tal se ejecuta por siempre, ya que el dividendo nunca cambia. La aplicación en cuestión entra entonces en un bucle infinito.

Para prevenir esto, actualmente los procesadores matemáticos son capaces de detectar divisiones por cero en tiempo de ejecución, y llegado el caso, entregan informes de error distinguibles al sistema, para que éste termine el proceso que se está ejecutando.

Por su parte, los compiladores más modernos incorporan mensajes de error cuando una división por cero ocurre explícitamente, mientras que algunos incluso además intentan detectar divisiones por cero no explícitas. Aquellos lenguajes que incorporan manejo de excepciones pueden capturar este evento para que sea tratado apropiadamente, ejecutando un código especialmente dedicado a este caso.

En el caso particular de divisiones por cero en aritmética de coma flotante, el estándar IEEE indica que si el divisor se hace cero en algún momento, tal operación deberá dar como resultado el valor Inf (infinito), o particularmente NaN (Not a Number, "No es un Número").[3]

Véase también

Referencias

Notas

Enlaces externos