lunes, 9 de abril de 2012

Análisis de errores


Análisis de errores:

Análisis de errores
Corriente de investigación que se desarrolló durante los años 70 del siglo XX como una rama de la Lingüística aplicada. Se proponía el estudio y análisis de los errores cometidos por los aprendientes de segundas lenguas para descubrir sus causas y conocer las estrategias que utilizan los alumnos en el proceso de aprendizaje.
El análisis de errores surgió como alternativa al análisis contrastivo. En 1967 S. P. Corder presentó uno de los artículos fundacionales de esta corriente«The significance of learner's errors». Hacia finales de los años 70 del siglo XX, la teoría evolucionó hacia los estudios de la interlengua y la adquisición de segundas lenguas.
A diferencia del análisis contrastivo, el método seguido por el análisis de errores no partía de la comparación de la lengua materna y la lengua meta del aprendiente, sino de sus producciones reales en lengua meta; tomando éstas como punto de partida, se procede mediante los siguientes pasos, recomendados en 1967 por  S. P. Corder:
  1. Identificación de los errores en su contexto;
  2. clasificación y descripción de los mismos;
  3. explicación de su origen, buscando los mecanismos o estrategias psicolingüísticas y las fuentes de cada error: en este punto entra la posible interferencia de la lengua materna, como una estrategia más;
  4. evaluación de la gravedad del error y búsqueda de un posible tratamiento.
Como consecuencia de estos estudios, se observó que los errores reflejaban estrategias universales de aprendizaje. De ahí nace la aportación más importante de esta corriente: el cambio de visión del error. Los errores empezaron a ser considerados como un factor provechoso en el aprendizaje  porque constituían un paso ineludible en el camino de apropiación de la nueva lengua  y eran valorados como índices de los diversos estadios que el aprendiente atraviesa durante el proceso de aprendizaje. De esta última asunción se pasaría al concepto de interlengua.
Desde un punto de vista psicolingüístico, esta corriente se apoyaba esencialmente en las investigaciones realizadas en los trabajos de N. Chomsky (1965) sobre la adquisición de la lengua materna. En esta teoría, la adquisición se concibe como un proceso creativo del niño, el cual, sirviéndose de un dispositivo interno, es capaz de construir la gramática de su lengua materna a partir de los datos a los que está expuesto. Siguiendo este planteamiento, se esperaba un proceso análogo en la adquisición de la segunda lengua.
El análisis del error se ha planteado del siguiente modo: por un lado, se han analizado las
distintas bases cartográficas disponibles para ejecutar el programa (en busca del error
inherente) y, por otro, se ha tratado de expresar el error de truncamiento que se deriva de la
modelización que el programa realiza del trazado, en función de la información cartográfica.

El error inherente es muy difícil de determinar con exactitud, si bien suele ser un error
pequeño; por este motivo, el error de truncamiento se ha calculado independientemente de
los posibles errores de la base cartográfica utilizada.

Todas las medidas experimentales vienen afectadas de una cierta imprecisión inevitable debida
a las imperfecciones del aparato de medida, o a las limitaciones impuestas por nuestros sentidos que deben registrar la información.

El principal objetivo de la denominada teoría de errores consiste en acotar el valor de dichas imprecisiones, denominadas errores experimentales. Dado que el valor de las magnitudes físicas se obtiene experimentalmente por medida (bien directa de la magnitud o bien indirecta, por medio de los valores medidos de otras magnitudes ligadas con la magnitud problema mediante una fórmula física) debe admitirse como postulado físico el hecho de que resulta imposible llegar a conocer el valor exacto de ninguna magnitud, ya que los medios experimentales de comparación con el patrón correspondiente en las medidas directas, viene siempre afectado de imprecisiones inevitables. De este modo, aunque es imposible encontrar en la práctica el valor "cierto" o "exacto" de una magnitud determinada, no hay duda de que existe, y nuestro problema es establecer los límites dentro de los cuales se encuentra dicho valor.

CLASIFICACIÓN DE LOS ERRORES
El error se define como la diferencia entre el valor verdadero y el obtenido experimentalmente.

Los errores no siguen una ley determinada y su origen está en múltiples causas. Atendiendo a las causas que los producen, los errores se pueden clasificar en dos grandes grupos, errores sistemáticos y errores accidentales.

Error sistemático: es aquel que es constante a lo largo de todo el proceso de medida y, por tanto, afecta a todas las mediciones de un modo definido y es el mismo para todas ellas. Estos errores tienen un signo determinado y las causas probables pueden ser las siguientes:

- Errores instrumentales (de aparatos). Por ejemplo el error de calibrado es de este tipo.

- Error personal. Este es, en general, difícil de determinar y es debido a limitaciones de carácter
personal. Un ejemplo de éste sería una persona con un problema de tipo visual.

- Error de la elección del método. Corresponde a una elección inadecuada del método de medida de la magnitud. Este tipo de error puede ponerse de manifiesto cambiando el aparato de medida, elobservador, o el método de medida.

Se denominan errores accidentales: a aquellos que se producen en las pequeñas variaciones
que aparecen entre observaciones sucesivas realizadas por un mismo operador. Las variaciones no son reproducibles de una medición a otra, y no presentan más que por azar la misma magnitud en dos mediciones cualesquiera del grupo. Las causas de estos errores son incontrolables para un observador. Los errores accidentales son en su mayoría de magnitud muy pequeña y para un gran número de mediciones se obtienen tantas desviaciones positivas como negativas. Aunque con los errores accidentales no se pueden hacer correcciones para obtener valores más concordantes con el real, si se emplean métodos todos estadísticos se puede llegar a algunas conclusiones relativas al valor mas probable en un conjunto de mediciones.

CONCEPTOS DE EXACTITUD, PRECISIÓN Y SENSIBILIDAD
En lo que respecta a los aparatos de medida, hay tres conceptos muy importantes que vamos a
definir exactitud, precisión, y sensibilidad.

La exactitud se define como el grado de concordancia entre el valor verdadero y el experimental. De modo que, un aparato es exacto si las medidas realizadas con él son todas muy próximas al valor "verdadero" de la magnitud medida.

La precisión hace referencia a la concordancia entre una medida y otras de la misma magnitud,
realizadas en condiciones sensiblemente iguales. De modo que, un aparato será preciso cuando la diferencia entre diferentes medidas de una misma magnitud sea muy pequeña.

La exactitud implica normalmente precisión, pero la afirmación inversa no es cierta, ya que
pueden existir aparatos muy precisos que posean poca exactitud debido a los errores sistemáticos tales como error de cero, etc. En general, se puede decir que es más fácil conocer la precisión de un aparato que su exactitud.

 La sensibilidad de un aparato está relacionada con el valor mínimo de la
magnitud que es capaz de medir. Por ejemplo, decir que la sensibilidad de una balanza es de 5 mg significa que para masas inferiores a la citada, la balanza no presenta ninguna desviación.

Normalmente, se admite que la sensibilidad de un aparato viene indicada por el valor de la
división más pequeña de la escala de medida. En muchas ocasiones, de un modo erróneo, se toman como idénticos los conceptos de precisión y sensibilidad, aunque hemos visto ya que se trata de conceptos diferentes

ERROR ABSOLUTO. ERROR RELATIVO
Si medimos una cierta magnitud física cuyo valor "verdadero" es x0, obteniendo un valor de la
medida x, llamaremos error absoluto en dicha medida, a la diferencia:

Δx = x – x0

donde en general se supone que |Δx| << |x0|

El error absoluto nos da una medida de la desviación, en términos absolutos respecto al valor "verdadero". No obstante, en ocasiones nos interesa resaltar la importancia relativa de esa desviación. Para tal fin, se usa el error relativo.

El error relativo: se define como el cociente entre el error absoluto y el valor "verdadero":


ε =Δx / x0

En forma porcentual se expresará multiplicado por cien. Cuando indiquemos el valor de una medida de una magnitud, tendremos que indicar siempre el grado de incertidumbre de la misma, para lo que acompañaremos el resultado de la medida del error absoluto de la misma, expresando el resultado en la forma:

x ± Δx

De ordinario, y dado el significado de cota de imprecisión que tiene el error absoluto, éste
jamás debe tener más de dos cifras significativas, admitiéndose por convenio, que el error absoluto sólo puede darse con dos cifras significativas si la primera de ellas es un 1, o si siendo la primera un 2, la segunda no llega 5. En todos los demás casos debe darse un valor con una sola cifra, 3 aumentando la primera en una unidad si la segunda fuera 5 o mayor que 5. El valor de la magnitud debe tener sólo las cifras necesarias para que su última cifra significativa sea del mismo orden decimal que la última del error absoluto, llamada cifra de acotamiento.

Como ejemplo damos la siguiente tabla de valores de distintas magnitudes (en la columna de la izquierda mal escritos y en la derecha corregidos) para poner de manifiesto lo dicho anteriormente.

Valores Incorrectos Valores Correctos                                       Valores Correctos

3.418 ± 0.123                                                                               3.42 ± 0.12
6.3 ± 0.09                                                                                     6.30 ± 0.09
46288 ± 1551                                                                               46300 ± 1600
428.351 ± 0.27                                                                             428.4 ± 0.3
0.01683 ± 0.0058                                                                         0.017 ± 0.006   

Si un valor de medida es leído de una tabla u otro lugar, sin indicación de su error, se tomara como error una unidad del orden de la última cifra con que se expresa.

DETERMINACIÓN DE LOS ERRORES COMETIDOS EN LAS MEDIDAS DIRECTAS
Cuando realicemos la medida de cualquier magnitud deberemos indicar siempre una
estimación del error asociado a la misma. Dado que no conocemos el valor "verdadero" de la
magnitud que deseamos medir, se siguen ciertos procedimientos para hacer una estimación tanto del valor "verdadero" de la magnitud, como de una cota de error, que nos indique la incertidumbre en la determinación realizada. Distinguiremos dos casos bien diferenciados: 

a) Caso en el que se realiza una única medida de una magnitud.
En este caso consideramos que el error absoluto coincide con el valor de la sensibilidad del
aparato utilizado para realizar la medida. De este modo el resultado de una medida lo indicaremos en la forma:
x ± Δx (Δx = sensibilidad)

b) Caso en el que se realizan varias medidas de una misma magnitud.
Con el fin de alcanzar cierta validez estadística en los resultados de las medidas, es muy
conveniente repetir varias veces la determinación del valor de la magnitud problema. Los resultados de las medidas individuales pueden presentarse poco o muy dispersas, en función de esta dispersión será conveniente aumentar o no, el número de determinaciones del valor de la magnitud.

DETERMINACIÓN DEL ERROR DE UNA MAGNITUD MEDIDA INDIRECTAMENTE

La medida indirecta de una magnitud se alcanza por aplicación de una fórmula a un conjunto
de medidas directas, (variables independientes o datos), que las relacionan con la magnitud
problema. Mediante dicha fórmula se obtiene también el error de la medida según pasamos a
explicar. Antes de continuar, debemos indicar que si en dicha fórmula aparecen números
irracionales tales como pi, e, etc., debemos elegir el número de cifras significativas con que deben tomarse a la hora de realizar los cálculos correspondientes, de modo que los errores cometidos al aproximar estos números irracionales no afecten a la magnitud del error absoluto de la magnitud que queremos determinar.

Supongamos que la magnitud F es función de otras magnitudes físicas, estando relacionada
con ellas por F = f ( x, y, z, ...). Supongamos además, que se han realizado medidas de las citadas
variables, x, y, z...; y se han determinado su valor y su error. Para realizar el cálculo del error
absoluto de F, en función de los errores absolutos cometidos en las determinaciones directas de x, y,z.
En este problema se presenta una notable simplificación en el caso en el que la función
considerada sea de la forma:
F = x [exp(a)] ,y [exp(b)], z [exp(c)]...


"Las matemáticas pueden ser definidas como aquel tema del cual no sabemos nunca lo que decimos ni si lo que decimos es verdadero".
Bertrand Russell (1872-1970) Filósofo, matemático y escritor británico..





Bibliografía:


1.    Fernández, S. (1997). Interlengua y análisis de errores: en el aprendizaje del español como lengua extranjera. Madrid: Edelsa.

2.    Santos Gargallo, I. (1993). Análisis contrastivo, análisis de errores e interlengua en el marco de la lingüística contrastiva. Madrid: Síntesis.

1.    Corder, S. P. (1967).  «The Significance of Learners' Errors». En IRAL, 5, pp. 161-170, recogido en Corder, S. P. (1981). Error Analysis and Interlanguage. Oxford: Oxford University Press.

lunes, 5 de marzo de 2012

Introducción al Análisis de Errores



A continuación definiremos algunos conceptos para así después poder comprender completamente el próximo tema.

Análisis:
Un análisis, en sentido amplio, es la descomposición de un todo en partes para poder estudiar su estructura, sistemas operativos, funciones, etc.

Error:
En general, se denomina error a todo juicio o valoración que contraviene el criterio que se reconoce como válido, en el campo al que se refiere el juicio.

En ciencias naturales y matemáticas:

§  Error experimental: la inexactitud cometida por culpa de no poder controlar adecuadamente la influencia de todas las variables presentes en un experimento.
§  Error de medición: la inexactitud que se acepta como inevitable al comparar una magnitud con su patrón de medida. El error de medición depende de la escala de medida empleada, y tiene un límite. Los errores de medición se clasifican en distintas clases (accidentales, aleatorios, sistemáticos, etc.).
§  Error de aproximación: es una medida del error cometido al aproximar una magnitud numérica por una expresión aproximada más sencilla que la expresión original exacta.
§  Error de cálculo: inexactitud o equivocación al realizar una operación matemática.
Numero:
Un número, en ciencia, es un concepto que expresa una cantidad en relación a su unidad. También puede indicar el orden de una serie (números ordinales). También, en sentido amplio, indica el carácter gráfico que sirve para representarlo, dicho signo gráfico de un número recibe el nombre de numeral o cifra. El que se escribe con un solo guarismo se llama dígito.
En matemática moderna, el concepto de número incluye abstracciones tales como números fraccionariosnegativosirracionalestrascendentalescomplejos(todos ellos con correlatos físicos claros) y también números de tipo más abstractos como los números hipercomplejos que generalizan el concepto de número complejo o los números hiperreales, los súper reales y los surreales que incluyen a los números reales como subconjunto.
Números Reales:
En matemáticas, los números reales (designados por R) incluyen tanto a los números racionales (positivos y negativos y el cero) como a los números irracionales (trascendentes, algebraicos), que no se pueden expresar de manera fraccionaria y tienen infinitas cifras decimales no periódicas. 
Los números reales pueden ser descritos y construidos de varias formas, algunas simples aunque carentes del rigor necesario para los propósitos formales de matemáticas y otras más complejas pero con el rigor necesario para el trabajo matemático formal.
Durante los siglos XVI y XVII el cálculo avanzó mucho aunque carecía de una base rigurosa, puesto que en el momento no se consideraba necesario el formalismo de la actualidad, y se usaban expresiones como «pequeño», «límite», «se acerca» sin una definición precisa. Esto llevó a una serie de paradojas y problemas lógicos que hicieron evidente la necesidad de crear una base rigurosa para la matemática, la cual consistió de definiciones formales y rigurosas (aunque ciertamente técnicas) del concepto de número real.1 En una sección posterior se describirán dos de las definiciones precisas más usuales actualmente: clases de equivalencia de sucesiones de Cauchy de números racionales y cortaduras de Dedekind.


Recta real.

Número imaginario: 
En matemáticas, un número imaginario es un número complejo cuya parte real es igual a cero, por ejemplo: 5i\  es un número imaginario, así como o i\  o  -i\   son también números imaginarios. En otras palabras, es un número de la forma:
 z = x + iy \;\;\;  en donde  z = x + iy \;\;\;
Convencionalmente, se le llama imaginario puro, o simplemente imaginario, si el contexto no se presta a confusión; de otro modo, los términos número imaginario y número complejo quieren decir lo mismo.
Un número imaginario puro puede describirse como el producto de un número real por la unidad imaginaria i, en donde la letra i denota la raíz cuadrada de -1 (-1 (i=\sqrt{-1}).).
Fue en el año 1777 cuando Leonhard Euler le dio a \sqrt{-1} el nombre de i, por imaginario, de manera despectiva dando a entender que no tenían una existencia real. Gottfried Leibniz, en el siglo XVII, decía que \sqrt{-1} era una especie de anfibio entre el ser y la nada.
En ingeniería electrónica y campos relacionados, la unidad imaginaria es a menudo escrita como j para evitar la confusión con la intensidad de una corriente eléctrica, tradicionalmente denotada por i.
Clasificación de números
Complejos \mathbb{C}
Reales \mathbb{R}
Racionales \mathbb{Q}
Enteros \mathbb{Z}
Naturales \mathbb{N}
Naturales primos
Naturales compuestos
Cero
Enteros negativos
Fraccionarios
Fracción propia
Fracción impropia
Irracionales\mathbb{I}
Irracionales algebraicos
Trascendentes
Imaginarios puros


Operación matemática:
En matemática una operación es la acción de un operador sobre los elementos de un conjunto. El operador toma los elementos iniciales y los relaciona con otro elemento de un conjunto final que puede ser de la misma naturaleza o no; esto se conoce técnicamente como ley de composición.
El conjunto de partida puede estar formado por elementos de un único tipo (las operaciones aritméticas actúan sólo sobre números) o de varios (el producto de un vector por un escalar engloba al conjunto unión de vectores y escalares que conforman un espacio vectorial).
Dependiendo de cómo sean los conjuntos implicados en la operación con respecto al conjunto considerado principal según nuestras intenciones podemos clasificar las operaciones en dos tipos: internas y externas.
Resultado:

v Efecto de un hecho, operación o razonamiento: hice todas las gestiones posibles, pero no conseguí ningún resultado.
v Solución de una operación matemática.
v Información conseguida después de una operación o investigación: los resultados de los análisis fueron buenos.
v Tanteo de una competición deportiva: les ofrecemos los resultados de los partidos jugados.


Podemos encontrar muchas definiciones completas o formales de algoritmo en los textos de algorítmica y programación, todas ellas muy similares:

a) Secuencia finita de instrucciones, reglas o pasos que describen de forma precisa las operaciones de un ordenador debe realizar para llevar a cabo un tarea en un tiempo más finito. [Donald E. Knuth, 1968]
b)Descripción de un esquema de comportamiento expresado mediante un reportorio finito de acciones y de informaciones elementales, identificadas, bien comprendidas y realizables a priori. Este repertorio se denomina léxico [Pierre Scholl, 1988]
c)Un algoritmo es un conjunto finito de pasos definidos, estructurados en el tiempo y formulados con base a un conjunto finito de reglas no ambiguas, que proveen un procedimiento para dar la solución o indicar la falta de esta a un problema en un tiempo determinado. [Rodolfo Quispe-Otazu, 2004].


Características:
Las características fundamentales que debe cumplir todo algoritmo son:
§  Ser definido: Sin ambigüedad, cada paso del algoritmo debe indicar la acción a realizar sin criterios de interpretación.
§  Ser finito: Un número específico y numerable de pasos debe componer al algoritmo, el cual deberá finalizar al completarlos.
§  Tener cero o más entradas: Datos son proporcionados a un algoritmo como insumo (o estos son generados de alguna forma) para llevar a cabo las operaciones que comprende.
§  Tener una o más salidas: Debe siempre devolver un resultado; de nada sirve un algoritmo que hace algo y nunca sabemos que fue. El devolver un resultado no debe ser considerado como únicamente “verlos” en forma impresa o en pantalla, como ocurre con las computadoras. Existen muchos otros mecanismos susceptibles de programación que no cuentan con una salida de resultados de esta forma. Por salida de resultados debe entenderse todo medio o canal por el cual es posible apreciar los efectos de las acciones del algoritmo.
§  Efectividad: El tiempo y esfuerzo por cada paso realizado debe ser preciso, no usando nada más ni nada menos que aquello que se requiera para y en su ejecución.

Programación: 

Es el proceso de diseñar, codificar, depurar y mantener el código fuente de programas computacionales. El código fuente es escrito en un lenguaje de programación. El propósito de la programación es crear programas que exhiban un comportamiento deseado. El proceso de escribir código requiere frecuentemente conocimientos en varias áreas distintas, además del dominio del lenguaje a utilizar, algoritmos especializados y lógica formal. Programar no involucra necesariamente otras tareas tales como el análisis y diseño de la aplicación (pero sí el diseño del código), aunque sí suelen estar fusionadas en el desarrollo de pequeñas aplicaciones.

Lenguaje de programación:

 Es un idioma artificial diseñado para expresar computaciones que pueden ser llevadas a cabo por máquinas como las computadoras. Pueden usarse para crear programas que controlen el comportamiento físico y lógico de una máquina, para expresar algoritmos con precisión, o como modo de comunicación humana.1 Está formado por un conjunto de símbolos y reglas sintácticas y semánticas que definen su estructura y el significado de sus elementos y expresiones. Al proceso por el cual se escribe, se prueba, se depura, se compila y se mantiene el código fuente de un programa informático se le llama programación.

También la palabra programación se define como el proceso de creación de un programa de computadora, mediante la aplicación de procedimientos lógicos, a través de los siguientes pasos:
§El desarrollo lógico del programa para resolver un problema en particular.
§Escritura de la lógica del programa empleando un lenguaje de programación específico (codificación del programa).
§Ensamblaje o compilación del programa hasta convertirlo en lenguaje de máquina.
§  Prueba y depuración del programa.
§  Desarrollo de la documentación.

v Variables y Vectores:
Las variables podrían calificarse como contenedores de datos y por ello se diferencian según el tipo de dato que son capaces de almacenar. En la mayoría de lenguajes de programación se requiere especificar un tipo de variable concreto para guardar un dato concreto. Por ejemplo, en Java, si deseamos guardar una cadena de texto deberemos especificar que la variable es del tipo "String". Por contra en otros lenguajes como PHP, este tipo de especificación de variables no es necesario. Además también existen variables compuestas por varias variables llamados vectores. Un vector no es más que un conjunto de variables ordenadas guardadas dentro de una variables contenedor del tipo vector. A continuación añadimos un listado con los tipos de variables y vectores más comunes:
§ Variables tipo Char: Estas variables contienen un único carácter, es decir, una letra, un signo o un número.
§  Variables tipo Int: Contienen un número entero.
§  Variables tipo float: Contienen un número decimal.
§  Variables tipo String: Contienen cadenas de texto, o lo que es lo mismo, es un vector con varias variables del tipo Char.
§  Variables del tipo Boolean: Solo pueden contener un 0 o un 1. El cero es considerado para muchos lenguajes como la variable del tipo String "False" mientras que el 1 se considera "True".
v Condicionantes:
Los condicionantes son estructuras de código que indican que para que cierta parte del programa se ejecute deben cumplirse ciertas premisas, como por ejemplo, que dos valores sean iguales, que un valor exista, que un valor sea mayor que otro y similares. Estos condicionantes por lo general solo se ejecutan una vez a lo largo del programa
v Bucles:
Los bucles son parientes cercanos de los condicionantes, pero ejecutan constantemente un código mientras se cumpla una determinada condición.
v Funciones:
Las funciones se crearon para evitar tener que repetir constantemente fragmentos de código. Una función podría considerarse como una variable que encierra código dentro de si. Por tanto cuando accedemos a dicha variable (la función) en realidad lo que estamos es diciendo al programa que ejecute un determinado código predefinido anteriormente.
Todos los lenguajes de programación tienen algunos elementos de formación primitivos para la descripción de los datos y de los procesos o transformaciones aplicadas a estos datos (tal como la suma de dos números o la selección de un elemento que forma parte de una colección). Estos elementos primitivos son definidos por reglas sintácticas y semánticas que describen su estructura y significado respectivamente.
v Sintaxis:
A la forma visible de un lenguaje de programación se le conoce como sintaxis. La mayoría de los lenguajes de programación son puramente textuales, es decir, utilizan secuencias de texto que incluyen palabras, números y puntuación, de manera similar a los lenguajes naturales escritos. Por otra parte, hay algunos lenguajes de programación que son más gráficos en su naturaleza, utilizando relaciones visuales entre símbolos para especificar un programa.
La implementación:
La implementación de un lenguaje es la que provee una manera de que se ejecute un programa para una determinada combinación de software y hardware. Existen básicamente dos maneras de implementar un lenguaje: compilación e interpretación.
v Compilación: es el proceso que traduce un programa escrito en un lenguaje de programación a otro lenguaje de programación, generando un programa equivalente que la máquina será capaz interpretar. Los programas traductores que pueden realizar esta operación se llaman compiladores. Éstos, como los programas ensambladores avanzados, pueden generar muchas líneas de código de máquina por cada proposición del programa fuente.

v Interpretación: es una asignación de significados a las fórmulas bien formadas de un lenguaje formal. Como los lenguajes formales pueden definirse en términos puramente sintácticos, sus fórmulas bien formadas pueden no ser más que cadenas de símbolos sin ningún significado. Una interpretación otorga significado a esas fórmulas.




"Nada ocurre porque si. Todo en la vida es una sucesión de hechos que, bajo la lupa del análisis, responden perfectamente a causa y efecto". 
Richard Feynmann




Bibliografia:
http://maths.anu.edu.au/~rennie/Analysis
http://www1.unex.es/eweb/fisteor/santos/mma/libro.metodos.matematicos.avanzados.2006.
http://es.wikipedia.org/wiki/N%C3%BAmero_imaginario
http://wmatem.eis.uva.es/~matpag/CONTENIDOS/Reales
http://www.mailxmail.com
http://www.profesorenlinea.cl/matematica