jueves, 3 de junio de 2021

¿Estáis Ahí? Paradoja de Fermi Retomada (2017)

    El curioso mundo de las paradojas es fascinante, no cabe duda. Algunas veces he tratado algunas de ellas en este blog, como por ejemplo, la Paradoja del Chocolate Infinito y la Paradoja de las Patatas, la Paradoja de Berry, Paradojas, Paradoja de los Viajes Espaciales o la Paradoja de la Ecuación de Drake y la Teoría de Olduvai. Retomo ahora lo que dejé pendiente justo al final de la última entrada referente a la Paradoja de Fermi, de nombre Enrico, uno de los más grandes físicos de la historia. Bien es cierto, como comenté allí que, en un descanso después de comer mientras trabajaba con otros físicos en el Proyecto Manhattan, ese que consiguió fabricar la bomba nuclear y cuyo director Robert Oppenheimer, después de ver las consecuencias de aquello, se definió a sí mismo como "destructor de mundos", se planteó por parte de Fermi, de modo informal en un principio, el siguiente razonamiento: el Sol es una estrella joven y existen miles de millones de estrellas en nuestra galaxia (así como miles de millones de galaxias en el universo conocido), la mayoría muchos miles de millones de años más viejas y, si la Tierra es un planeta modelo (con lo que algunas de esas estrellas antiguas contienen planetas con vida inteligente) y algunos de estos planetas tienen civilizaciones capaces de realizar viajes interestelares, los extraterrestres deberían haber visitado nuestro planeta e incluso habernos colonizado. Por lo que surge la pregunta, de forma natural, ¿dónde están todos ellos?

   Así pues, según la estimación de Fermi, la probabilidad de que nos visiten los extraterrestres es muy elevada y, sin embargo, no tenemos evidencias de ésto. La existencia de vida extraterrestre se concibió así como un problema difícil de resolver con nuestros conocimientos y nuestra tecnología actual.

   De esta cuestión se derivó el Proyecto Seti y la famosa Ecuación de Drake. En la actualidad existe multitud de información al respecto pero, evidentemente, son especulaciones con más o menos probabilidad de ser ciertas. En aquella entrada del año 2017 concluí, en mi modesta opinión, que existen pocas probabilidades de la existencia de vida extraterrestre inteligente, esa que podría contactar con nosotros aunque con matices. 

   Fermi dio una respuesta a su propia paradoja, quizás influido por la época que le tocó vivir y las cuestiones profesionales en las que estaba inmerso: en caso de existir alguna civilización extraterrestre avanzada capaz de contactarnos, habría sucumbido por autodestrucción, algo que casi le ocurrió a la humanidad (véase la Guerra Fría y el uso de armas nucleares). Hoy en día se opta más bien por la explicación de la falta de recursos pero, son especulaciones, como comenté unas frases más arriba.

   Mi opinión particular al respecto es que quizás, o no existen dichas civilizaciones o, en caso de existir, no hemos sabido contactar con ellas, son las dos opciones con más probabilidades, y las que menos probabilidades, en mi modesta opinión, repito, las teorías de la autodestrucción o la falta de recursos.

   Es una cuestión muy atrayente ésta y todas las opiniones son válidas por ser un problema abierto así que exhorto al lector a que busque información y saque sus propias conclusiones, todas válidas, claro está.

martes, 1 de junio de 2021

Una Ecuación Diferencial Importante

    La datación por Carbono-14 es muy importante en la actualidad desde el punto de vista geológico y arqueológico ya que este isótopo (radiactivo) se encuentra de forma natural en los organismos vivos basados en el Carbono. El isótopo Carbono-14 (un isótopo es un elemento que tiene el mismo número atómico pero distinto número de neutrones del elemento en el que se basa), al ser radiactivo, se desintegra siguiendo la ley de desintegración exponencial, que es la ecuación diferencial de la que hablaré en esta entrada. El método de datación en sí, de forma breve, se basa en incinerar una pequeña muestra de los restos que se quieren estudiar, lo cual libera gases compuestos de Carbono, como el dióxido de carcono, que contienen Carbono-12, que es estable, y Carbono-14, que es inestable. Este Carbono-14 se transforma en Nitrógeno-14 liberando un electrón, que es medido con instrumental especial de radiación para contabilizar la proporción de Carbono-14 y saber así la edad del fósil aplicando la citada ley de desintegración exponencial.

   Vamos a considerar un sistema con muchos núcleos atómicos que se desintegran (por cualquiera de los tres tipos de desintegración existentes) a un ritmo determinado por la constate Lambda λ (probabilidad de que un núcleo se desintegre en un instante de tiempo), si en un instante t existen N núcleos que no se han desintegrado, se construye la ecuación diferencial dN = -N λ dt, por tanto, dN/N = -λ dt, donde el signo negativo se incluye para indicar que N decrece con el tiempo (proceso de desintegración). La sencilla ecuación diferencial anterior se resuelve simplemente integrando en ambos miembros, de donde 

    siendo N_0 el número de núcleos iniciales sin desintegrar y T el tiempo de vida, definido como el inverso de λ.

Habitualmente se utiliza también el tiempo o período de semivida, o vida media o semidesintegración, T1/2, que es el tiempo transcurrido para que el número de núcleos iniciales pase a ser la mitad, es decir, se tiene T1/2 = (ln2) T = 0.693 T (la última igualdad es una aproximación de ln(2)).

   Esta sencilla pero útil ecuación diferencial se viene usando desde principios del siglo XX y es muy fiable (cerca del 100% de efectividad) para dataciones hasta, aproximadamente, 50.000 años en el tiempo, por lo que se convierte en fundamental, sobre todo, en los yacimientos arqueológicos para el estudio de la humanidad.

sábado, 22 de mayo de 2021

Rescate Científico del Bañista

    Releyendo mis libros, he encontrado un curioso ejemplo que relaciona la distancia con el tiempo en el sentido de cuál de estas magnitudes interesa más al observador. Es una aplicación sencilla de la conocida como "Ley de Snell" que precisa cuánto se desvía la luz en su (recta) trayectoria al entrar en el agua. En el caso que traigo a esta entrada, la luz sería el aguerrido socorrista y el bañista su objetivo o punto final. Evidentemente, lo que intenta el socorrista al divisar a lo lejos al bañista en apuros es recorrer la mayor distancia en el medio más rápido, es decir, en la situación del rescate equivale a correr por la playa la mayor distancia posible antes de lanzarse al agua, que es el medio más lento en el que avanzaría nadando en busca del bañista. Todo ello suponiendo, como es lógico, que el bañista se encuentra en una posición que no es perpendicular a la situación del socorrista en la playa, ya que, en este supuesto, el socorrista correría perpendicular a la línea de playa y nadaría hasta el bañista sin modificar su trayectoria recta. Gráficamente se podría dar en el siguiente esquema:


   Así pues, la línea recta es la más corta (suponemos la playa en el espacio euclídeo), la línea más punteada en la gráfica, pero no es la más rápida porque requiere un tramo a nado de mayor longitud. Por otra parte, el socorrista se podría plantear si correr la mayor distancia posible por la playa, al ir más rápido que nadando, y lanzarse al agua en la perpendicular con el bañista, situación representada en el dibujo con la línea con menos discontinuidades, pero así también tardaría demasiado tiempo en llegar al bañista (y más cansado) por la distancia extra que tendría que recorrer por la playa. Por todo ello, el camino en el que invertirá menos tiempo, que es realmente lo que pretende, es el que entre en el agua con un cierto ángulo y luego tuerza hacia otro más cerrado respecto a la perpendicular con la orilla de la playa. Ese ángulo preciso es el que resuelve la Ley de Snell.

   Esta curiosa situación es la que se dá también al introducir una cuchara en un vaso de agua al aparecer, aparentemente, "torcida", o cuando un rayo de luz cambia su trayectoria rectilínea de un entorno a otro: es lo que se conoce como refracción, es decir, la luz recorre el camino en el que invierte el menor tiempo posible.

Pero este fenómeno de la luz (socorrista) no es siempre así, aunque pueda parecer extremadamente raro. Existe el llamado "Principio de Mínima Acción", del que quizás hable otro día...

jueves, 6 de mayo de 2021

¿Hasta Dónde se Puede Ver en el Horizonte? Fácil

    Una cuestión que se suele plantear cada vez que se hace una escapada a la montaña o estando a cierta altura admirando el paisaje, si se tiene un poco de espíritu crítico, es ¿hasta dónde abarca lo que veo?, es decir, ¿cuál es el límite real de lo que se puede ver desde donde estoy? Es una pregunta que surge de forma espontánea, sobre todo, en días claros sin nubes, y la respuesta es relativamente fácil si no se tiene en cuenta el concepto de "curvatura" de un objeto no plano. Aquí una entrada anterior en la que muestro algunos conceptos relacionados con lo que nos ocupa y, en esta otra entrada un ejemplo curioso sobre el concepto de curvatura.

   El Teorema de Pitágoras ha sido y es fundamental en las matemáticas con multitud de aplicaciones. Es un resultado tremendamente sencillo de enunciar y comprender a la vez que increiblemente potente. Dice, sin ser rigurosos, lo bien conocido: en un triángulo en el plano con un ángulo recto, la suma de los cuadrados de los catetos equivale al cuadrado de la hipotenusa. El lector avezado se habrá dado cuenta que he mencionado el teorema con el detalle "en el plano". Pues bien, el teorema es extrapolable a las 3 dimensiones de forma análoga al plano simplemente teniendo en cuenta un paralelogramo y midiendo en su interior una hipotenusa, es muy trivial. 

   Vamos a aplicar este sencillo teorema a nuestra cuestión inicial. Supongamos para ello, que nos encontramos en un monte a 1000 metros de altitud, admirando el paisaje y nos preguntamos la cuestión inicial de esta entrada. Entonces, si R es el radio de la Tierra, h la altura a la que nos encontramos y vis la distancia que une el horizonte que vemos y la altura a la que nos encontramos, es decir, vis es el segmento visible de la recta tangente a la Tierra que une el punto en el que nos encontramos (en nuestro ejemplo, 1000 metros = 1 kilómetro) con el horizonte. Aplicando pues el teorema de Pitágoras, tenemos (R+h)^2 = R^2 + vis^2. Haciendo unos sencillos cálculos, se obtiene vis^2 = h(2R + h).

  Si nos fijamos, 2R + h es, aproximadamente, 2R, ya que h es muy pequeño respecto al radio de la Tierra, por lo que, vis^2 = (aprox) h(2R). El radio de la Tierra R = 6371 km, y h = 1 km, y resulta, una vez despejando vis al hacer la raíz cuadrada, vis = (aprox) 112.88 km. Es decir, desde nuestra posición elevada, si el día está completamente despejado, veríamos el horizonte situado a 112.88 km.

   Sin más que variar la altura h a la que se encuentre el observador, se puede calcular de forma sencilla a qué distancia se encuentra el horizonte, de una forma sencilla y rápida.

sábado, 24 de abril de 2021

Método de Mínimos Cuadrados de Gauss

 

    Se encuadra dentro de la optimización matemática, es decir, maximizar o minimizar una función, dadas unas condiciones iniciales, para obtener unos resultados lo más aproximados posibles a las soluciones reales. El objetivo de este método es encontrar la función que mejor se ajuste a unos datos dados. La idea es: supongamos (x1, y1), (x2, y2), …, (xn, yn) parejas de datos de observaciones de las variables X e Y. Supongamos que entre estas variables existe una relación, que definimos por la función f, de tal manera que f(xi) = yi para i = 1, 2, …,n. El método de mínimos cuadrados pretende encontrar la función que haga mínimos lo errores que se definen como la diferencia entre el valor real de la variable Y y su estimación por medio de f. Dichos errores se definen entonces como ei = yi – f(xi), por tanto, se trata de que la suma de estos errores sea la menor posible. ¿Por qué se le llama método de mínimos cuadrados? Porque elevando al cuadrado se elimina la posibilidad de que se contrarresten los errores positivos con los negativos y, además, se permite despreciar los errores más pequeños debidos, quizás, a las imprecisiones en la toma de datos (es sabido que al elevar al cuadrado los números comprendidos entre -1 y 1, el resultado es menor que número inicial). 

En definitiva, el método pretende minimizar la función,

lo cual es equivalente a minimizar la función

 

(es decir, derivar e igualar a cero para conseguir los puntos críticos de la función, derivar por segunda vez y comprobar si esos puntos críticos son mayores que cero).

La dificultad de este método estriba en cómo de “mala” sea la función f en cuanto a su complejidad. El caso más sencillo sería en el que dicha función sea una recta del tipo Y = a + bX, donde a y b se obtienen a partir de los n datos bidimencionales (x1, y1), (x2, y2), …, (xn, yn).

Derivando, como comenté antes, se llega a las expresiones

       

llamadas `ecuaciones normales´, de donde se despejan a y b, que toman la forma

 

siendo

 , , , ,

la covarianza de X e Y, la varianza y la media de X y la media de la variable Y. La recta que surge de estos datos se denomina `recta de regresión´.

   Es decir, partiendo de n datos iniciales, la recta de regresión (la forma más sencilla del método de mínimos cuadrados), nos ayuda a calcular el posible valor de una variable a partir del valor conocido de otra.

   Este método es ampliamente utilizado en estadística, en particular, en inferencia estadística, que trata de sacar conclusiones generales de una población a estudio a partir de una muestra representativa de ésta. La inferencia se basa pues, en lo que se denominan `estimadores´ que son funciones de la muestra considerada. Como conclusión de esta parte final, cabe resaltar la existencia de un resultado llamado Teorema de Gauss-Markov que afirma que, muy sucíntamente, según determinadas hipótesis (complicadas y casi tediosas para lo que pretendo mostrar), el estimador obtenido por el método de mínimos cuadrados es óptimo, es decir, esa función de la muestra es la mejor, la más eficiente, de ahí la importancia del estudio de los estimadores y de este método tan intuitivo que Gauss desarrolló y nos dejó para la posteridad.

jueves, 25 de marzo de 2021

Construcciones (No Construibles) con Regla y Compás

    Expongo aquí las demostraciones rigurosas de dos cuestiones muy básicas de nombrar, como son la imposibilidad de cuadrar el círculo y duplicar el cubo, con el uso tangible de instrumentos físicos, esto es, con el uso de regla y compás de la forma geométrica clásica:

1) No es posible la construcción con regla y compás de un cuadrado cuya área coincida con la del círculo de radio la unidad.

Para ello, supongamos lo contrario, es decir, lo que se conoce como la demostración por el método de reducción al absurdo. Sean pues, Ai = (ai, bi), con i = 1, 2, 3, 4 los vértices consecutivos de un cuadrado de área π. Sin entrar en detalles escabrosos, existe un resultado que garantiza que un punto se puede construir a partir del conjunto de puntos del plano P = {(0, 0), (1, 0)}, si una extensión de cuerpos a partir del menor subcuerpo de R (conjunto de números reales) que contiene a Q (conjunto de números racionales) es potencia de 2. No entraré en esto, ya que el objetivo de esta entrada ha de ser simple y no la pérdida de interés en el resultado final. Con esto en mente, se considera ese menor subcuerpo como el propio Q. Así, una extensión de él, E/Q, es algebraica, donde E = Q(a1, b1, a2, b2). Pero contradice la trascendencia de π (esto es, no es raíz de ningún polinomio), ya que π = (a1 – a2)2 +( b1 – b2)2 que pertenece a E. Así, no es posible encontrar el cuadrado inicial.


2) No es posible construir con regla y compás un cubo cuyo volumen sea el doble del de otro dado.

Para este caso, es suficiente probar que no es posible construir un cubo de volumen 2. Supongamos, al igual que antes, la reducción al absurdo para llegar a una contradicción, por lo que se asume que sí se puede construir y fijamos una cara de dicho cubo apoyada en el plano x3 = 0 de R3. Si obviamos la tercera coordenada, llamamos A = (a1, a2) y B = (b1, b2) a dos vértices consecutivos en dicha cara. Estos puntos son construibles con regla y compás, según vimos más arriba y se tiene x = (a1 – a2)2 +( b1 – b2)2 que está en E = Q(a1, b1, a2, b2).

Haciendo operaciones (largas) se obtiene x3 = 4 por estar en E. Así pues, una extensión de E sobre Q es múltiplo de 3 (ya que un polinomio en x sobre Q es de la forma T3 – 4). Veamos, rápidamente, que esa extensión de E es potencia de 2, con lo que llegaremos a una contradicción: Si escogemos el conjunto de puntos del plano P = {(0, 0), (1, 0)} al que le añadimos el punto A, esto es P = {(0, 0), (1, 0), (a1, a2)} y p = B, que es construible a partir de P, como mencionaba antes, se tiene que la la extensión de cuerpos a partir del menos subcuerpo de Q que contiene a A, es potencia de 2, por lo que obtenemos la contradicción buscada.


No he pretendido entrar en detalles que velan el objetivo final de estas líneas, que es el mostrar con rigor, aunque por encima, lógicamente, dos hechos bien conocidos sobre las construcciones geométricas tangibles con regla y compás y espero que sirvan como curiosidad y se tomen con el mismo interés que las demás entradas de este blog.

Es evidente que se pueden construir con regla y compás muchas figuras que, de hecho, se realizan en estudios básicos de secundaria como son la recta perpendicular a otra dada, la recta paralela a otra dada que pase por un determinado punto o el punto medio de un segmento que une dos puntos dados, construcciones muy fáciles que me divertían en el instituto. Es bueno recordarlas.

miércoles, 27 de enero de 2021

Geodesia, Líneas Geodésicas y Algunos Resultados

    ¿Qué es la geodesia? La palabra Geodesia expresa división de la Tierra y trata de proporcionar una estructura geométrica precisa para el apoyo de los levantamientos topográficos. Actualmente, se puede definir como la ciencia que resuelve los problemas relacionados con la figura y dimensiones de la Tierra.

   ¿Qué problemas científicos pueden aclararse con la geodesia? Existen varios:

-Determinación del tipo de superficie matemática que represente suficientemente bien la figura de la Tierra en su totalidad. Se considera como un elipsoide de revolución ligeramente aplanado, denominado elipsoide terrestre.

-El estudio de la verdadera figura de la Tierra y su campo de gravedad, es decir, su superficie física y la gravedad que actúa sobre ella.

-En menor medida o derivados de los anteriores, se podrían citar la medición de la aceleración de la gravedad, las determinaciones astronómicas de las latitudes y las longitudes terrestres, las observaciones de los satélites artificiales, la elaboración y desarrollo de métodos e instrumentos para la ejecución de mediciones y observaciones de alta precisión, métodos topográficos para el estudio detallado de la forma de la superficie terrestre, etc.

   Se pueden definir ahora, unas líneas muy importantes en el estudio de la Geodesia, esto es, en el estudio del planeta Tierra y, por ende, extrapolable a cualquier otro planeta u objeto de forma esférica.

De forma rigurosa y sin entrar en detalles que pueden desviar la atención del espíritu de esta entrada y del blog en general, como ya comenté en otras entradas de corte técnico, se dice que una curva parametrizada no constante Y: I -> S (superficie) es geodésica en un punto t de I si el campo de sus vectores tangentes Y '(t) es paralelo a lo largo de Y en t, es decir, DY '(t) /dt = 0.

Para poder identificar geométricamente algunas geodésicas, el siguiente resultado es especialmente útil:

Una curva regular C incluida en la superficie S (con curvatura no nula) es una geodésica sí y sólo sí, su normal principal en cada punto p de C es paralela a la normal a S en p.

Para ejemplificar lo anterior, se puede afirmar que los círculos máximos de la esfera son geodésicas. De hecho, los círculos máximos C se obtienen al intersecar la esfera con un plano que pase por el centro de la esfera. ¿Por qué? la normal principal en un punto p de C está en la intersección de la recta que conecta p con el centro de la esfera porque C es un círculo de centro el centro de la esfera y así la normal se halla en esta misma dirección. Con este resultado, se afirma que sólo los meridianos y el ecuador (los círculos máximos) son geodésicas.

Se llama curvatura geodésica al valor de la derivada covariante Da '(s) /ds, donde s es la longitud de arco de la parametrización de C. Con esta definición, las geodésicas que sean curvas regulares son las que tienen curvatura geodésica nula.

Y, ¿qué sucede con los otros círculos que no son máximos que pueden surcar la superficie de una esfera? Estos círculos no máximos se llaman líneas loxodrómicas y, rigurosamente, son las líneas que cortan bajo ángulo constante, un haz de planos. Su expresión es (cotgA)(J + q) = Ln tg(v/2 + Pi/4), con variables (J, v), q constante, cotgA constante. Se puede decir que esta línea loxodrómica es la línea que unen dos puntos cualesquiera de la superficie de la esfera cortando a todos los meridianos con el mismo ángulo.

   Para acabar esta breve entrada sobre resultados interesantes, y muy importante en el estudio de las triangulaciones en la superficie de una esfera o en la Tierra, se deben considerar las aplicaciones del Teorema de Gauss-Bonnet que, de forma muy sencilla, dice que la cantidad evaluable (el número) de la curvatura gausiana en una variedad compacta bidimensional M más la cantidad evaluable de la curvatura geodésica en el borde de esa variedad, es decir, el valor de la curvatura total en una superficie bidimensional, equivale a 2 * Pi * X(M), siendo X(M) la Característica de Euler de M (es un invariante topológico que describe la estructura de un espacio topológico, como ejemplo, X de un figura tridimensional es la conocida fórmula X = V - A + C, con V vértices, A aristas y C caras).

¿Cómo se puede aplicar el resultado anterior? Sabemos que la suma de los ángulos de un triángulo en el plano (2 dimensiones) es Pi pero en una esfera (3 dimensiones) esa suma es Pi + curvatura del triángulo. Por tanto, la trigonometría esférica no es la misma que la trigonometría en el plano, con unas fórmulas mucho más engorrosas que la habitual y sencilla que se aprende en edades tempranas.

   Hasta aquí estos breves apuntes que espero que sirvan para despertar el interés sobre cómo se comportan las líneas y círculos que rasgan la superficie de nuestro planeta, resultados tan usados en la planificación aérea de las líneas de aviones mundiales así como por los satélites que pueblan nuestros cielos y las telecomunicaciones del futuro.


sábado, 23 de enero de 2021

Curvatura de Una Recta: Otra "Sencilla" Prueba

    Tal y como comenté en la entrada Un "Sencillo" Dibujo , no siempre es fácilmente demostrable lo que parece tan evidente a la vista, ya que lo riguroso requiere conceptos profundos como se vió allí y se verá, con menos profundidad, aquí.

   ¿Una recta tiene curvatura?, ¿y un plano?, ¿y una esfera? El concepto de curvatura es interesante para las superficies (diferenciables) de 3 dimensiones, y esta vez traigo unos sencillos ejemplos sobre cómo calcular la curvatura de superficies tan cotidianas como las rectas, las superficies planas o las esferas, estas últimas tan interesantes y con tantas propiedades, todo ello sin entrar en abstracciones como Formas Fundamentales, parametrizaciones o tensores.

   Aunque las geodésicas son un parte fundamental de estos conceptos, tampoco voy a entrar en explicaciones técnicas para no aburrir, se trata de considerar cuestiones aparentemente sencillas, a priori, y muy intuitivas como las planteadas al principio, pero haciendo una entrada amena y fácil de leer. Así, de forma lógica aunque poco matemática, es obvio que una recta en el espacio euclídeo (esto es, lo que vemos) no se curva porque es “recta”, evidentemente, (bueno, en realidad sí se curva si se considera como una geodésica pero no voy a rizar el rizo) y un plano tampoco se curva porque es una superficie recta plana, por tanto, se les podría asignar un número a ese grado de curvatura, es decir, se dice que tienen curvatura cero. La curvatura referida en esta entrada es la curvatura gaussiana, ya que fue Gauss el que profundizó en la temática de la geometría diferencial. Existen pues, curvaturas positivas, negativas o nulas dependiendo de ciertas cuestiones y formas en las que no entraré, repito, para no aburrir. Simplemente, se debe saber que la curvatura de una superficie tiene signo o puede ser nula. ¿Y la esfera? La esfera tiene una curvatura que depende de su radio R y ésta es K = 1/R2.. La forma de calcularla es parametrizarla y aplicar una serie de fórmulas que, repito, no haré para no embarrar esta entrada.

   Un resultado con una importancia radical se debe a Gauss, claro, y es el llamado Teorema Egregium que dice que la curvatura gaussiana de una superficie es invariante bajo isometrías locales. Esto quiere decir que la curvatura de una superficie no depende de la forma en que ésta se encuentra en el espacio tridimensional. Este resultado tiene diversas aplicaciones, destacando la de cartografiar terrenos ya que una esfera como la Tierra no puede “aplastarse” o proyectarse sobre un plano (un mapa terrestre) sin distorsionar distancias, lo que técnicamente sería decir que no existe una isometría entre la esfera y el plano (hemos comentado que el plano tiene curvatura nula, como una recta, pero la esfera tiene siempre curvatura distinta de cero y el Teorema Egregium garantiza que la curvatura es un invariante).

Veamos el ejemplo de la recta, que tiene curvatura K = 0, el cual se puede extender al caso del plano:

- Una primera forma intuitiva sería considerar la recta como un círculo de radio infinito, es decir, abrimos un círculo y desplegamos sus extremos y como la curvatura de la esfera depende de su radio R, la cual es K = 1/R2, si el radio es infnito, se obtiene así que K = 0. Esta sería la idea intuitiva fácil de ver.

- La forma más rigurosa es considerar una recta en el plano y = ax + b (fácilmente extrapolable a la recta en el espacio pero así se facilitan los cálculos y la visión del resultado buscado). La fórmula de la curvatura es

Por tanto, haciendo cálculos, f '(x) = af ''(x) = 0; y así, K = 0 por tener el numerador nulo.

   Esta sencilla demostración se puede ampliar al plano considerándolo como una infinidad de rectas paralelas, con lo que también tiene curvatura nula, sin entrar en detalles, tan solo viendo este experimento de forma lo más intuitiva posible. Espero haber aclarado esta "sencilla" cuestión.

jueves, 21 de enero de 2021

Método de Bisección: Bolzano a lo Bestia

   El método de bisección para la resolución numérica de ecuaciones me parece el más intuitivo, sencillo y fácil de aplicar de entre los denominados métodos iterativos convergentes, es decir, métodos que generan una sucesión de números que se pretende que converja a la solución exacta, entre los que se incluyen el método de la secante, de Newton-Raphson, etc. En su contra, el método que voy a tratar, destaca su lenta capacidad de convergencia, esto es, requiere un número de pasos elevado para alcanzar una solución aproximada, frente a otros métodos más rápidos pero más complejos.

   El Teorema de Bolzano se estudia en secundaria por su sencillez y eficacia en esos niveles ya que tan solo requiere un par de condiciones en la hipótesis para asegurar la tesis. Dice lo siguiente: consideremos una función f continua definida en un intervalo [a, b] de tal manera que f(a)f(b)<0. Esto equivale a decir que la función cambia de signo en el intervalo [a, b], más claro todavía, signof(a) ha de ser distinto de signof(b), cualesquiera que sean a y b. Entonces, se asegura que la función f se anula en algún punto del interior de [a, b], es decir, existe un punto c con la condición a < c <b tal que f(c) = 0.

   Como detalle del método de bisección hay que decir que garantiza al menos una solución en el intervalo tratado pero no asegura nada sobre la existencia de más de un cero en dicho intervalo. El método es tan sencillo como aplicar el Teorema de Bolzano reiteradamente en el intervalo [a, b]. Establece pues, que una primera aproximación a la solución exacta, llamémosla "s", es el punto medio del intervalo x1 = (a + b)/2. Si evaluamos la función f en este punto nos encontramos con tres posibilidades:

1) que f(x1) = 0 (¡solución exacta! ocurrirá muy pocas veces…) con lo que s = x1.

2) f(a)f(x1) < 0, en cuyo caso, aplicando de nuevo el Teorema de Bolzano, la solución se encontrará en el intervalo en el que f cambia de signo, esto es, en [a, x1].

3) f(x1)f(b) < 0, lo que asegura, aplicando Bolzano, que la solución estará en [x1, b].

 En cualquiera de los dos últimos casos, llamamos [a2, b2] al intervalo que contiene la solución (se puede considerar [a, b] = [a1, b1]) y se repite el procedimiento, con lo que x2 = (a2 + b2)/2 sería la nueva aproximación a la solución s y se volverían a ofrecer las tres posibilidades anteriores.

El error absoluto cometido en este proceso iterativo viene dado por |xns| es menor o igual al cociente (bnan)/2 = (bn-1an-1)/22 = … = (b2a2)/2n-1 = (ba)/2n.

Con esta acotación se puede determinar fácilmente el número mínimo de iteraciones del método que es necesario realizar para asegurar que el error absoluto cometido sea menor que una cierta cantidad positiva prefijada e, ya que para que |xns| < e, es suficiente exigir que (ba)/2n < e, lo cual se da siempre que n > Ln ((ba)/e) – Ln(2), siendo Ln el logaritmo neperiano.

De lo anterior se deduce que, fijado un error, se ha de despejar n, que es el número de iteraciones que habrá que calcular. Una vez en este punto, se evalúa f(xn) y obtenemos así un valor tan próximo a cero como el error que hemos prefijado.

Existe muchos métodos de aproximación de soluciones de una ecuación: implícitos, explícitos, Runge-Kutta, Sturm, etc, con diversa complejidad pero, el más sencillo y eficaz (aunque lento) es el que he expuesto en estas líneas. Espero que el lector lo aplique con objetividad, a mí me ayudó mucho.

Validación de Experimentos

    Se experimenta día a día con tecnología, medicamentos (hoy más que nunca), arquitectura, materiales y un largo etcétera pero ¿cómo se valida un experimento?, ¿cómo se asegura su objetividad al repetirlo? La validación de un experimento se realiza mediante la aplicación de lo que se denomina coeficiente de validez, a través de la correlación entre dos series de resultados: el del experimento y el de la prueba de comprobación. Así, un alto coeficiente de correlación en la validez de un experimento nos permitirá predecir un tipo de conducta partiendo únicamente de la aplicación del experimento. La correlación R es la correspondencia más o menos importante entre dos valores basada en un conjunto de cálculos de aplicación estadística.

Se estima la siguiente tabulación para los distintos valores de R (la correlación se evalúa entre 0 y 1):

-menos de 0.69 => R es baja o dudosa

-de 0.69 a 0.74 => R es moderada o débil

-de 0.75 a 0.84 => R es aceptable o buena

-de 0.85 a 0.94 => R es alta o muy buena

-de 0.95 a 0.99 => R es excelente

Una correlación R = 1 es perfecta y significa que las dos variables medidas se corresponden de forma absoluta en sus valores y variaciones.

   Se pueden distinguir distintos tipos de validez:

1) De contenido o lógica: se expresa cuando el experimento representa el mejor criterio para evaluar la capacidad en estudio y se basa en el análisis de los casos que integran la prueba, su grado de dificultad, su estabilidad para medir lo pretendido y la relación con el objeto de la evaluación.

2) Predictiva: está en relación con el grado de probabilidad que presenta un experimento para predecir cuál será un resultado futuro de un individuo en relación a una determinada conducta o capacidad. Como norma general, este tipo de comprobación requiere mucho tiempo ya que es necesaria una amplia serie de medidas.

3) Empírica o referida a los criterios: puede realizarse poniendo en correlación los valores del experimento con los de otro experimento conocido ya validado (denominado prueba paralela) o poniendo en correlación los valores del experimento con un criterio exterior, como una competencia.

4) Factorial: se utiliza para la comparación entre experimentos. Si la correlación es alta (según la tabla anterior, entre 0.85 y 1), ambos experimentos tienen una alta correspondencia y si la correlación es baja o nula (menos de 0.69) cada experimento mide un aspecto diferente.

   Por tanto, ha de buscarse una prueba de evaluación objetiva que no dependa de la persona u objeto que realiza el experimento y esta objetividad debe prevalecer en la construcción, aplicación, explicación, descripción e instrucciones de la realización del experimento. También ha de verse reflejada en que los grados de valoración del rendimiento obtenidos en las pruebas dependen de si la prueba en sí misma es objetiva o cuándo incide más la interpretación.

   Lo más conveniente para corroborar la objetividad de un experimento es realizarlo con, al menos, dos equipos de evaluadores diferentes y en intervalos de tiempo reducidos aunque, dependiendo de la naturaleza del experimento, se puede dilatar más o menos el tiempo. Si se consigue un coeficiente de correlación que muestre una R cercana al 1 entonces los resultados obtenidos serán análogos obteniendo así un alto grado de objetividad del experimento.

   Los criterios de calidad principales para la realización de un experimento (validez y objetividad) vienen acompañados de una serie de criterios secundarios, aunque no por ello carecen de importancia:

a) Normalización: consiste en transformar el valor del experimento a una ubicación con relación a una norma estadística. Se llega así a la realización de escalas de medidas que se elaboran a través de estudios estadísticos con el objetivo de la confección de las normas. La idea es obtener un elevado número de elementos que realicen el experimento para así poder, a través de la estadística (en concreto, de los teoremas de Lindenberg-Levy, la Ley Débil de los Grandes Números y la Ley Fuerte de los Grandes Números), "normalizar" los resultados obtenidos, esto es, que se distribuyan según la Distribución Normal con media y desviación típica conocidas.

b) Estandarización: para que sea válida la comparación de resultados recogidos sobre diferentes grupos objeto de estudio o sobre el mismo grupo objeto de estudio pero en períodos diferentes, es necesario estandarizar las técnicas de administración del experimento. Una pequeña variación en las reglas de realización de una prueba pueden alterar el resultado y su valoración posterior.

c) Economización: se considera un experimento económico aquel que sea realizable en poco tiempo, que precise poco material y maquinaria y que pueda ser interpretado fácilmente sin muchos cálculos.

d) Utilidad: se considera útil un experimento que analice una conducta o capacidad para cuyo conocimiento existe una necesidad práctica y un auténtico interés de conocimiento.

e) Probabilidad: el experimento debe ser realizado con éxito por un porcentaje elevado de personas u objetos que estén capacitados para su desempeño.

   El rigor debe superar a la opinión cuando de experimentar se trata, y espero que sirva esta entrada para clarificar cómo se ha de regular la realización (seria) de un experimento.

Euler y las Ecuaciones Diferenciales

Nadie duda que Leonhard Euler es uno de los científicos más grande de todos los tiempos, adelantado a su época y con una curiosidad tan grande como su prodigiosa mente. Por citar un par de aportaciones, fue el descubridor del grandioso número “e” o el `creador´ de la fórmula más bonita de las matemáticas, la Identidad de Euler:

Traigo hoy aquí una contribución a un campo de la ciencia aplicada, en este caso, un método sencillo para aproximar la solución de una ecuación diferencial (¡tan solo sabiendo la definición de lo que es una ecuación diferencial!).

Con este mecanismo se puede hallar, en el segmento [x0, b], la solución aproximada de la ecuación y’ = f(x, y) con la condición inicial y(x0) = y0. Consiste en sustituir por una unión de segmentos rectos la curva integral buscada de la ecuación diferencial que pasa por el punto M0(x0, y0).

Se divide el segmento [x0, b] en n partes, no necesariamente iguales, por los puntos x0 < x1 < … < xn = b.

Se traza, por el punto inicial M0(x0, y0) de la curva integral, una recta M0M de coeficiente angular f(x0, y0) hasta el punto M1(x1, y1) de intersección con la recta x = x1. La ordenada del punto M1 se determina por la fórmula  y1 = y0 + f(x0, y0) (x1 x0).

Se traza, por el punto M1(x1, y1) una recta M1M2 de coeficiente angular f(x1, y1) hasta el punto M2(x2, y2) de intersección con la recta x = x2. La ordenada del punto M2 se determina por la fórmula y2 = y1 + f(x1, y1) (x2 x1).

Siguiendo este proceso, se determina el punto M3(x3, y3) y sucesivos. Así pues, la ordenada del punto Mn(xn, yn) se determina por la fórmula yn = yn-1 + f(xn-1, yn-1) (xn xn-1).

Los valores aproximados de la solución de la ecuación dada en los puntos x1, x2, … ,xn son y1, y2, … ,yn.

Haciendo la construcción gráfica se obtiene una “quebrada”, denominada precisamente quebrada de Euler, que representa aproximadamente la curva integral que pasa por el punto M0(x0, y0).

Para simplificar los cálculos, se suele dividir el segmento inicial [x0, b] en partes iguales y se recurre al paso h = xhxh-1. La magnitud de esta h se denomina intervalo de variación del argumento.

Así, cumpliendo ciertas condiciones respecto a la función f(x, y) (revisar el Teorema de Picard-Lindelöf sobre existencia y unicidad de soluciones de EDO), para h0 la solución aproximada proporciona la solución exacta de la ecuación que satisface la condición inicial y(x0) = y0.

Por tanto, para aplicar este intuitivo método, basta proporcionar un intervalo cerrado y acotado en el que se quiera estudiar la solución, la ecuación diferencial que se quiere aproximar con su condición inicial y el número de partes en las que se quiere dividir el intervalo dado. Hay que tener en cuenta que la precisión del método de Euler no es alta pero, a veces, puede servir como una buena referencia para aplicar otros métodos más modernos y exactos aunque, estos últimos, sí requieren tener conocimientos sobre las ecuaciones diferenciales. Exhorto al lector a aplicarlo a algún ejemplo sencillo, se sorprenderá de la simpleza y eficacia del método del gran Euler.