¿Qué es 0 dividido entre 0? Esta fue la pregunta más buscada en Google. Parece un problema simple que, sin embargo, generó muchas dudas en torno a el.
Hoy el proceso de búsqueda de respuestas a cosas que no se comprendían se simplificó enormemente y, antes de acudir a alguna otra fuente, lo primero que hacen las personas es tratar de encontrar la información que necesitamos buscando en Google.
Todos los años por estas fechas la compañía publica un listado de lo más buscado. Una de las categorías estudiadas corresponde a la búsqueda de preguntas qué empiezan por la locución “¿Qué es…?” . En ella aparecen dudas como “¿qué es Ashley Madison?”, “¿qué es un eclipse lunar?”, “¿qué es el ébola?” o “¿qué es el ISIS?”, pero, curiosamente, la duda que encabeza la lista este año corresponde a un problema matemático: “¿Qué es 0 dividido entre 0?”.
La popularidad de esta incógnita tiene una explicación. Este verano diversos usuarios descubrieron que al hacer la pregunta al asistente personal del iPhone, el conocido Siri, este respondía con una enigmática sentencia. Primero aparecía en la pantalla la respuesta “indeterminado” y después el programa pronunciaba lo siguiente: “Imagínate que tienes cero galletas y las repartes entre cero amigos. ¿Cuántas galletas le tocan a cada amigo? No tiene sentido. ¿Lo ves? Así que el monstruo de las galletas está triste porque no tiene galletas y tú estás triste porque no tienes amigos”.
La respuesta parece una fanfarronada de los programadores de Apple, pero en realidad tiene bastante más sentido del que parece. Aunque todos habíamos aprendido que cero dividido por cualquier número da cero, lo cierto es que la cuestión es un problema matemático de primer orden: tanto en el mundo del álgebra como en el de la aritmética el problema es considerado una “indeterminación” –tal como apuntaba Siri–, que puede originar diversas paradojas.
Un problema complejo
La problemática de la división entre cero lleva acompañando a los matemáticos desde tiempos inmemoriales. La primera referencia histórica que se conoce al planteamiento del problema data del siglo VII, cuando en la India se popularizó el uso del cero. Fue el matemático Bhaskara I el primero que trato se solucionar el problema escribiendo que n / 0 es igual a infinito. Esta solución parece aparentemente aceptable en la práctica, pero puede generar paradojas matemáticas, conocidas como “diferentes infinitos”. En informática, de hecho, la división entre cero es un clásico error lógico, fuente de infinidad de fallos de programación. A día de hoy, la operación “cero entre cero” se sigue considerando una indeterminación.
Una idea intuitiva de la explicación matemática es la que sigue. Si 0/n para cualquier n distinto de cero es 0, da igual entre qué número dividamos cero, pues todos tocan a cero porque no hay nada que repartir. Si tengo n/0 para n distinto de cero se habla de infinito. Sabemos que cuando el denominador es grande se toca a menos, y a medida que ese número se hace cada vez más pequeño se va tocando a más.
Para entender esto hay que conocer lo que en matemáticas se conoce como los límites. El límite de 1/x cuando x tiende a cero es infinito [lim(x->0) 1/x = infinito]. Algo que se entiende fácilmente si observamos las siguientes divisiones:
1/1 = 1
1/0,1 = 10
1/0,01 = 100
1/0,001 = 1000
Cada vez el cociente es más grande...
La indeterminación llega cuando dividimos cero entre cero porque "cero divido por cualquier número es cero" pero también cualquier número dividido por cero es infinito y ahí la contradicción. En este caso, los límites arreglan algo las cosas, aunque 0/0 es una indeterminación el límite de x/x cuando x tiende a cero es uno [lim(x->0) x/x = 1]. Sin embargo lim(x->0) (x^2)/x es cero (gana el numerador porque está al cuadrado y "crece" más rápido) y al revés lim(x->0) x/(x^2) = infinito, porque "gana" el denominador.