El origen del cero y por qué cambió las matemáticas

-
De la ausencia al concepto: el largo viaje de una idea revolucionaria
- 1. Las primeras sombras: marcas de ausencia en las civilizaciones antiguas
- 2. La cuna conceptual: la India y la síntesis filosófico-matemática
- 3. El puente hacia Occidente: la transmisión árabe y la resistencia europea
- 4. La revolución operativa: habilitando el álgebra y el cálculo
- 5. Más que un número: implicaciones filosóficas y en la computación
-
Guía detallada: El origen del cero y por qué cambió las matemáticas para siempre
- ¿En qué civilizaciones antiguas se documentan los primeros conceptos de un símbolo o idea representando la nada o la ausencia de cantidad, y cuál es considerado el origen histórico del cero como numeral?
- ¿De qué manera fundamental la introducción del cero como concepto y dígito posicional transformó los sistemas de numeración y el desarrollo de la aritmética y el álgebra?
- ¿Cómo se explica, desde la lógica de las potencias y las propiedades de los sistemas numéricos, que cualquier número (excepto el propio cero) elevado a la potencia cero sea igual a uno?
- En el contexto de la lógica booleana y los sistemas digitales, ¿cómo se asigna convencionalmente el valor cero: como "falso" o como "verdadero", y qué implicaciones tiene esta dualidad?
-
Información adicional de Interés
- ¿Qué civilizaciones antiguas utilizaron primero un concepto similar al cero y cómo lo representaban?
- ¿Por qué la invención del cero como número fue tan revolucionaria para las matemáticas?
- ¿Cómo viajó el concepto del cero desde su origen hasta el mundo occidental?
- ¿Qué implicaciones filosóficas y prácticas tuvo la aceptación del cero?
Imaginen un mundo sin ausencia, un horizonte matemático donde la nada carecía de símbolo y de concepto. Esta fue la realidad durante milenios, hasta que una revolución silenciosa, gestada en la antigua India, otorgó un nombre y un lugar a la vacuidad. no es solo una cuestión histórica, sino un viaje al corazón mismo del pensamiento abstracto. Más que un simple marcador de posición, este dígito audaz se erigió en la piedra angular de nuevas operaciones, álgebras y cálculos, transformando para siempre nuestra capacidad de describir el universo, desde lo infinitamente pequeño hasta las vastedades cósmicas.
De la ausencia al concepto: el largo viaje de una idea revolucionaria
La historia de El origen del cero y por qué cambió las matemáticas es la crónica de una de las abstracciones más poderosas concebidas por la humanidad. No se trata meramente de la invención de un símbolo, sino de la cristalización de un concepto filosófico y matemático radical: la representación de la nada como una entidad cuantificable y operativa. Este viaje, que atravesó culturas y milenios, transformó irreversiblemente la aritmética, el álgebra y, en última instancia, la estructura misma del pensamiento científico, permitiendo el salto del cálculo concreto al razonamiento abstracto.
1. Las primeras sombras: marcas de ausencia en las civilizaciones antiguas

Antes de su formalización, el cero existía como una necesidad práctica, una ausencia sentida. Civilizaciones como los babilonios (hacia el 300 a.C.) y los mayas (alrededor del 350 d.C.) utilizaron marcadores posicionales. Los babilonios empleaban un doble clavo inclinado para denotar un espacio vacío en su sistema sexagesimal, pero no lo trataban como un número independiente. Los mayas, con su sofisticado sistema vigesimal, utilizaban un glifo con forma de concha o caracol para este fin, especialmente en sus cálculos calendáricos. Sin embargo, en ambos casos, este cero era más un símbolo de placeholder que un ente matemático con propiedades propias. Carecía de la capacidad de ser operado en ecuaciones o de representar el resultado de una resta idéntica.
2. La cuna conceptual: la India y la síntesis filosófico-matemática

El verdadero origen del cero como número se gestó en la India, entre los siglos V y IX d.C. Aquí, la convergencia de tradiciones filosóficas que exploraban el concepto de vacío (śūnyata) y la necesidad de perfeccionar los sistemas de cálculo dio a luz al śūnya. Matemáticos como Brahmagupta, en su obra Brahmasphuṭasiddhānta (628 d.C.), no solo definió el cero sino que estableció reglas aritméticas para operar con él, incluyendo la suma, la resta y el peligroso resultado de la división por cero. Esta formalización fue crucial, pues transformó el cero de un simple marcador en un número completo con estatus y comportamiento definido, sentando las bases para el sistema decimal posicional.
3. El puente hacia Occidente: la transmisión árabe y la resistencia europea

El conocimiento del cero, junto con todo el sistema numérico indio, fue absorbido y ampliado por los eruditos del mundo islámico, como al-Khwarizmi (c. 780-850 d.C.). Su tratado Sobre el cálculo con números hindúes fue fundamental para diseminar el sistema. Desde los centros de conocimiento en Bagdad y Córdoba, el sistema de numeración posicional, incluido el cero, entró en la Europa medieval. Su adopción fue lenta y encontró férrea resistencia entre los abacistas, fieles al ábaco y los numerales romanos, que veían en el cero un símbolo pagano y peligroso, la cifra del demonio. La victoria final de los algoristas (partidarios del nuevo método) fue un punto de inflexión en la eficiencia del cálculo comercial y científico.
4. La revolución operativa: habilitando el álgebra y el cálculo

La incorporación del cero como número operativo cambió radicalmente el panorama matemático. En álgebra, permitió formular ecuaciones de manera general y manejar soluciones nulas y negativas. Pero su impacto más profundo llegó con el cálculo infinitesimal desarrollado por Newton y Leibniz. El cero se convirtió en el concepto límite esencial para definir derivadas e integrales, permitiendo medir el cambio continuo y lo infinitamente pequeño. Sin el cero como ancla en el sistema de coordenadas cartesianas y como concepto límite, la física matemática y la revolución científica moderna hubieran sido imposibles. Este es el núcleo de por qué El origen del cero y por qué cambió las matemáticas es un tema central en la historia del pensamiento.
5. Más que un número: implicaciones filosóficas y en la computación

La trascendencia del cero va más allá de la aritmética. Filosóficamente, forzó a repensar la naturaleza de la nada y el ser, desafiando doctrinas que negaban la existencia del vacío. En la era digital, su importancia alcanza una cúspide práctica: el código binario, base de todos los sistemas informáticos, se sustenta en la díada 0 y 1. El cero no es aquí una mera ausencia, sino un estado lógico fundamental (apagado, falso) que, combinado, genera la complejidad computacional actual. De marcador de ausencia a pilar de la inteligencia artificial, el cero demostró ser la idea más llena de consecuencias.
| Civilización / Período | Aporte o Uso | Naturaleza del Concepto |
|---|---|---|
| Babilonios (c. 300 a.C.) | Doble clavo inclinado como separador posicional | Marcador de posición (no operativo) |
| Mayas (c. 350 d.C.) | Glifo de concha/caracol en el sistema vigesimal | Marcador de posición en cálculos calendáricos |
| India (s. V-IX d.C.) | Definición del śūnya y sus reglas aritméticas (Brahmagupta) | Número completo y operativo |
| Mundo Islámico (s. VIII-IX d.C.) | Transmisión, síntesis y diseminación del sistema indio (al-Khwarizmi) | Puente de transmisión y consolidación |
| Europa Medieval/Renacimiento | Adopción gradual tras superar la resistencia, sustituyendo al ábaco | Herramienta fundamental para la ciencia y comercio |
| Era Digital (s. XX-XXI) | Base del estado apagado en el código binario | Fundamento lógico de la computación |
Guía detallada: El origen del cero y por qué cambió las matemáticas para siempre
¿En qué civilizaciones antiguas se documentan los primeros conceptos de un símbolo o idea representando la nada o la ausencia de cantidad, y cuál es considerado el origen histórico del cero como numeral?
Los primeros conceptos de un símbolo representando la ausencia de cantidad se documentan en civilizaciones antiguas como la babilonia, que hacia el siglo III a.C. utilizaba un par de cuñas inclinadas como marcador posicional dentro de su sistema sexagesimal, aunque no era un número autónomo; de forma independiente, los mayas desarrollaron en el período Clásico (siglo IV d.C.) un símbolo de concha o caracol para el cero dentro de su complejo sistema calendárico y vigesimal, empleándolo también en cálculos; sin embargo, el origen histórico del cero como numeral completo, con sus propiedades aritméticas y valor posicional absoluto, se atribuye a la India, donde matemáticos como Brahmagupta, en el siglo VII d.C., formalizaron las reglas para operar con el 'śūnya' (vacío), un hito que, tras su transmisión al mundo islámico y luego a Europa, constituye el origen del cero y por qué cambió las matemáticas de manera fundamental.
El marcador posicional babilonio
La civilización babilonia, con su avanzado sistema sexagesimal, implementó hacia el siglo III a.C. un ingenioso recurso para evitar ambigüedades en la notación numérica: utilizaban un par de cuñas inclinadas para señalar la ausencia de un orden de magnitud dentro de un número, funcionando como un marcador de posición. Este símbolo no era considerado un número en sí mismo, carecía de valor absoluto y no se utilizaba en operaciones aritméticas o al final de una cifra, lo que limitaba su potencia conceptual. Su uso era pragmático y surgía de la necesidad de claridad en registros astronómicos y comerciales, representando un paso seminal, aunque incompleto, hacia la abstracción de la nada cuantitativa.
| Civilización | Símbolo aproximado | Función principal | Limitación clave |
|---|---|---|---|
| Babilonia | Dos cuñas inclinadas (ˇ ˇ) | Marcador de posición interno | No era un número operativo |
El cero calendárico y místico de los mayas
En el continente americano, la civilización maya desarrolló de manera autónoma un concepto y símbolo para el cero, representado comúnmente por una concha o caracol estilizado, durante su período Clásico. Este cero maya era integral dentro de su sofisticado sistema de numeración vigesimal (base 20) y, crucialmente, se empleaba tanto en elaborados cálculos calendáricos para fechar ciclos cosmológicos como en transacciones, demostrando ser un numeral operativo. No obstante, su uso parece haber estado circunscrito principalmente a estos contextos específicos y no generó un corpus teórico abstracto sobre sus propiedades aritméticas, quedando aislado del desarrollo matemático global.
| Civilización | Símbolo | Sistema | Contexto de uso principal |
|---|---|---|---|
| Mayas | Concha/Caracol | Vigesimal (base 20) | Cálculos calendáricos y astronómicos |
La formalización india y su legado universal
La concepción del cero como un número completo con entidad propia y reglas de interacción nació en la India, donde los matemáticos lo denominaron 'śūnya' (vacío). Figuras como Brahmagupta, en su obra Brahmasphuṭasiddhānta (628 d.C.), establecieron por primera vez reglas explícitas para operaciones aritméticas con el cero, incluyendo la suma, resta y la problemática división. Este cero indio, transmitido a través de la cultura árabe (donde se llamó 'ṣifr') y luego a Europa, introdujo la potencia del sistema de numeración posicional decimal en su plenitud. Esta revolución conceptual, que permitió representar cualquier magnitud y operar con una lógica algebraica coherente, es precisamente el origen del cero y por qué cambió las matemáticas de manera irreversible, sentando las bases para el álgebra, el cálculo y la ciencia moderna.
¿De qué manera fundamental la introducción del cero como concepto y dígito posicional transformó los sistemas de numeración y el desarrollo de la aritmética y el álgebra?

La del cero como concepto y dígito posicional revolucionó los sistemas de numeración al dotarlos de una estructura posicional completa y eficiente, eliminando la necesidad de símbolos distintos para cada orden de magnitud y permitiendo la representación inequívoca de cualquier número, por grande o pequeño que fuera. En aritmética, el cero actuó como identidad aditiva y elemento neutro, posibilitando operaciones sistemáticas y algoritmos como la división larga; en álgebra, su incorporación como número legítimo y solución potencial transformó las ecuaciones, sentando las bases para el desarrollo del álgebra simbólica y, posteriormente, del cálculo infinitesimal. El origen del cero y por qué cambió las matemáticas reside precisamente en esta doble naturaleza de marcador de posición y número con propiedades aritméticas propias, que desencadenó una abstracción sin precedentes.
Revolución en los sistemas de numeración: del valor absoluto al valor posicional
La adopción del cero como marcador de posición o dígito posicional transformó radicalmente la notación numérica, sustituyendo los sistemas aditivos (como el romano) por el sistema posicional decimal. Este cambio permitió que el valor de un dígito dependiera de su posición, haciendo la representación de números infinitamente más compacta y eficiente para el cálculo. Un mismo símbolo (por ejemplo, 5) podía representar cinco, cincuenta o quinientos dependiendo del lugar que ocupara, y el cero garantizaba la correcta interpretación de dichas posiciones, evitando ambigüedades y facilitando operaciones complejas que antes eran engorrosas o imposibles.
El cero como pilar de las operaciones aritméticas y los algoritmos
La incorporación del cero como número con propiedades definidas, y no solo como un simple marcador, fue fundamental para el desarrollo de la aritmética sistemática. Su rol como elemento neutro para la suma (a + 0 = a) y como elemento absorbente para la multiplicación (a 0 = 0) estructuró las reglas operativas básicas. Esto permitió la creación y estandarización de algoritmos eficientes para todas las operaciones fundamentales, como la multiplicación y la división de números grandes, que se basan en el manejo coherente de las posiciones y los acarreos, procesos donde el cero es indispensable.
Impacto fundacional en el álgebra y el pensamiento matemático abstracto
En el ámbito del álgebra, la aceptación del cero como un número legítimo amplió el horizonte de las ecuaciones y la teoría de números. Permitió considerar soluciones nulas y formular ecuaciones en su forma general (como ax² + bx + c = 0), lo que fue crucial para el desarrollo de las fórmulas algebraicas y la resolución sistemática de problemas. Esta abstracción sentó las bases para concebir las matemáticas como un sistema de relaciones entre entidades definidas, allanando el camino para el cálculo infinitesimal y la matemática moderna, donde el cero es central en conceptos como el límite y la derivada.
| Área de Impacto | Concepto Clave Habilitado | Consecuencia o Aplicación Práctica |
|---|---|---|
| Sistemas de Numeración | Notación Posicional | Representación única y eficiente de números infinitamente grandes o pequeños. |
| Aritmética | Algoritmos Estandarizados | Operaciones como la división larga y la multiplicación por columnas. |
| Álgebra | Ecuaciones en Forma General | Desarrollo de fórmulas de resolución (ej., fórmula cuadrática) y álgebra simbólica. |
| Pensamiento Abstracto | Número como Entidad Abstracta | Transición de las matemáticas como herramienta contable a ciencia de las estructuras. |
¿Cómo se explica, desde la lógica de las potencias y las propiedades de los sistemas numéricos, que cualquier número (excepto el propio cero) elevado a la potencia cero sea igual a uno?

Desde la lógica de las propiedades de las potencias, concretamente la propiedad de la división de potencias de igual base ((a^m / a^n = a^{m-n})), se deduce la necesidad de definir (a^0 = 1) para (a neq 0) para mantener la coherencia del sistema. Si tomamos (m = n), tenemos (a^n / a^n = a^{n-n} = a^0), y dado que cualquier número no nulo dividido por sí mismo es 1, la única definición consistente es que (a^0 = 1). Esta definición no es arbitraria, sino una extensión necesaria que preserva la regla y permite el funcionamiento fluido de la aritmética y el álgebra, evitando contradicciones y sirviendo como elemento neutro para la multiplicación en estructuras más abstractas, un concepto cuya importancia se comprende mejor al analizar El origen del cero y por qué cambió las matemáticas, ya que la formalización del cero permitió entender estas extensiones de potencias como naturales.
La deducción desde la propiedad de la división de potencias
La explicación más directa surge de aplicar la propiedad de la división de potencias de igual base, que establece que al dividir (a^m) entre (a^n) (con (a neq 0)), el resultado es (a^{m-n}). Si consideramos el caso donde los exponentes son iguales ((m = n)), la operación sería (a^n / a^n = 1), pero algebraicamente también equivale a (a^{n-n} = a^0). Para que esta igualdad fundamental se mantenga y el sistema numérico sea consistente, no queda más remedio que definir que (a^0 = 1). Esta no es una convención aislada, sino una consecuencia lógica de una regla previa que queremos conservar para todos los exponentes enteros.
Coherencia con el elemento neutro de la multiplicación
En el contexto de las estructuras algebraicas, el número 1 actúa como el elemento neutro para la operación de multiplicación ((a times 1 = a)). La operación de potenciación puede verse como una multiplicación iterada: (a^n = 1 times a times a ... times a) (n veces). Cuando n=0, no hay multiplicaciones por la base (a), por lo que solo permanece el 1 inicial. Esta interpretación refuerza la definición, mostrando que (a^0 = 1) es la única forma de extender la operación de manera que el 1 mantenga su papel fundamental. Esta idea de identidad multiplicativa está profundamente ligada a la evolución de los sistemas numéricos.
El caso especial del cero elevado a la cero
La definición (a^0 = 1) se aplica para cualquier base distinta de cero porque el caso de (0^0) presenta una indeterminación que surge de conflictos entre distintas propiedades. Desde el límite de funciones, la expresión (0^0) puede tender a diferentes valores. Sin embargo, en ciertos contextos de matemática discreta o teoría de conjuntos, se define (0^0 = 1) por conveniencia para fórmulas como el teorema del binomio o la representación de funciones como (x^0). La exclusión del cero en la regla general ((a^0=1)) evita contradicciones en el análisis, pero su estudio revela la delicada interacción entre definición, consistencia y contexto, un tema que se enriquece al considerar El origen del cero y por qué cambió las matemáticas.
| Propiedad de Potencias | Expresión General | Aplicación para deducir a⁰ |
|---|---|---|
| División de igual base | aᵐ / aⁿ = aᵐ⁻ⁿ | Si m=n, aⁿ / aⁿ = aⁿ⁻ⁿ = a⁰ = 1 |
| Multiplicación de igual base | aᵐ aⁿ = aᵐ⁺ⁿ | Si n=0, aᵐ a⁰ = aᵐ⁺⁰ = aᵐ, luego a⁰ debe ser 1 |
| Potencia de una potencia | (aᵐ)ⁿ = aᵐⁿ | Si m=1 y n=0, (a¹)⁰ = a¹⁰ = a⁰ = 1, coherente con (a)⁰=1 |
En el contexto de la lógica booleana y los sistemas digitales, ¿cómo se asigna convencionalmente el valor cero: como "falso" o como "verdadero", y qué implicaciones tiene esta dualidad?

En el contexto de la lógica booleana y los sistemas digitales, el valor cero se asigna convencionalmente al estado lógico falso, mientras que el uno representa verdadero; esta dualidad binaria, que hunde sus raíces en la filosofía aristotélica del principio del tercero excluido y fue formalizada por George Boole, es la piedra angular sobre la que se construye toda la computación moderna, pues permite una correspondencia directa y eficiente entre un concepto abstracto (la verdad o falsedad de una proposición) y un fenómeno físico tangible en un circuito (la ausencia o presencia de voltaje, respectivamente), lo que implica que la complejidad de cualquier operación intelectual o algorítmica pueda ser reducida, modelada y ejecutada mediante la manipulación de interruptores eléctricos que obedecen a estas reglas simples, dando lugar desde las operaciones aritméticas más básicas hasta la inteligencia artificial más sofisticada, todo sustentado en la interpretación de la nada (el cero) como negación y el ser (el uno) como afirmación.
La Correspondencia entre Lógica y Electrónica: De la Teoría al Circuito
La implicación fundamental de asignar falso al cero y verdadero al uno es la materialización de la lógica en hardware. Un sistema digital, en su nivel más básico, utiliza dos niveles de voltaje diferenciados (por ejemplo, 0V y 5V) para representar estos estados. Esta correspondencia permite que las puertas lógicas (AND, OR, NOT) se construyan con transistores, actuando estos como interruptores controlados eléctricamente. Así, una proposición lógica como A AND B es verdadera se traduce en un circuito que solo conduce corriente (salida '1') cuando ambos interruptores A y B están cerrados (en estado '1'). Esta transición de lo abstracto a lo físico es lo que posibilitó la revolución digital, ya que El origen del cero y por qué cambió las matemáticas sentó las bases conceptuales para un sistema posicional, pero fue esta dualidad verdadero/falso la que permitió su implementación física masiva.
Implicaciones en la Programación y la Representación de la Información
Esta convención trasciende los circuitos y define la semántica de los lenguajes de programación, donde las expresiones booleanas se evalúan como falsas (0) o verdaderas (cualquier valor distinto de cero, típicamente 1). Esto afecta directamente el flujo de control mediante estructuras como `if` o `while`. Además, la dualidad impregna la representación misma de la información: un bit es la unidad mínima, un dígito binario que puede ser 0 o 1. La agrupación de bits permite codificar no solo números, mediante sistemas como el binario puro o el complemento a dos, sino también texto, imágenes y sonido, todo a partir de secuencias largas de estas decisiones binarias fundamentales. La elección de qué representa el cero (apagado, falso, no) es, por tanto, la semilla conceptual de toda la informática.
La Dualidad Filosófica y sus Alternativas en Lógica
Aunque la asignación cero=falso es casi universal en sistemas digitales, la dualidad subyacente invita a una reflexión más profunda. En lógica filosófica, el bivalorismo (una proposición es verdadera o falsa) no es la única opción, existiendo sistemas multivaluados o difusos que admiten grados de verdad. En electrónica, la propia convención podría ser invertida (lógica negativa), donde el voltaje alto representa el falso. Sin embargo, la prevalencia de la convención actual se debe a su naturalidad intuitiva y a ventajas técnicas históricas, como la asociación de '0' con la ausencia de señal o el estado de reposo. Esta elección, aparentemente arbitraria pero profundamente arraigada, estructura nuestro pensamiento computacional de manera tan esencial que modela cómo abordamos problemas, siempre reduciéndolos a una serie de preguntas cuya respuesta es sí (1) o no (0).
| Concepto Abstracto (Lógica) | Representación Física (Electrónica) | Representación Digital (Bit) | Implicación Principal |
|---|---|---|---|
| Verdadero (True) | Presencia de voltaje (ej. 5V, 3.3V) | Valor 1 (Nivel Alto) | Afirmación, activación, paso de corriente. |
| Falso (False) | Ausencia o bajo voltaje (ej. 0V) | Valor 0 (Nivel Bajo) | Negación, desactivación, circuito abierto. |
| Variable Booleana | Nodo o línea en un circuito | Un único bit de memoria | Puede almacenar y transportar un estado. |
| Operación Lógica (ej. AND) | Puerta lógica física (circuito con transistores) | Instrucción del procesador (ALU) | Transformación física de señales según reglas abstractas. |
Información adicional de Interés
¿Qué civilizaciones antiguas utilizaron primero un concepto similar al cero y cómo lo representaban?

El concepto de cero como marcador de posición apareció de forma independiente en varias culturas. Los babilonios (hacia el 300 a.C.) usaban un símbolo entre cifras para indicar ausencia, pero no como número independiente. Los mayas desarrollaron un cero calendárico y posicional en su sistema vigesimal, representado por un símbolo similar a una concha. Sin embargo, fue en la India antigua donde, alrededor del siglo V d.C., el cero (śūnya, que significa vacío) se definió plenamente como un número con valor propio, sentando las bases para su uso aritmético.
¿Por qué la invención del cero como número fue tan revolucionaria para las matemáticas?

Antes del cero como entidad numérica, operaciones como la resta de un número por sí mismo carecían de un resultado claro. La gran revolución fue que el cero actuó como elemento identidad para la suma y, crucialmente, permitió el desarrollo del sistema de numeración posicional decimal (como el indo-arábigo). Esto transformó los métodos de cálculo aritmético, haciendo posibles operaciones complejas de manera eficiente y sentando las bases para el álgebra y, más tarde, el cálculo infinitesimal.
¿Cómo viajó el concepto del cero desde su origen hasta el mundo occidental?

El conocimiento del cero indio se transmitió a la cultura islámica a través de eruditos como Al-Juarismi en el siglo IX. Los matemáticos árabes perfeccionaron y difundieron el sistema decimal posicional, que incluía al cero (sifr, que derivó en cifra). Este conocimiento llegó a Europa principalmente a través de la península ibérica y, tras una resistencia inicial, fue adoptado gradualmente entre los siglos XII y XV, reemplazando los engorrosos números romanos y catalizando el avance científico del Renacimiento.
¿Qué implicaciones filosóficas y prácticas tuvo la aceptación del cero?

La aceptación del cero desafiaba concepciones filosóficas profundas, pues representaba la nada o el vacío como algo cuantificable, una idea que perturbó a culturas que asociaban el ser con la plenitud. Prácticamente, se convirtió en el eje del sistema de coordenadas cartesianas, permitiendo modelar el espacio y el movimiento. Además, es la base de la informática moderna a través del código binario (0 y 1), demostrando que su mayor poder reside en ser un concepto abstracto que estructura el pensamiento lógico y la tecnología.
Si quieres conocer otros artículos parecidos a El origen del cero y por qué cambió las matemáticas puedes visitar la categoría Historia.
Deja una respuesta

Contenido Relacionado