Twitter Infomercados Facebook Infomercados Google+ Infomercados
COTIZACIONES › Abertis 13,05 (1,56%) | Acciona 64,46 (1,54%) | Acerinox 12,62 (-1,25%) | ACS 29,20 (0,05%) | AENA 128,70 (1,82%) | Amadeus 42,55 (1,17%) | Arcelor Mitt 7,68 (-5,77%) | B.Popular 1,00 (-3,84%) | Banco Sabade 1,38 (0,66%) | Bankia 0,95 (-2,26%) | Bankinter 7,56 (1,25%) | BBVA 6,41 (-0,99%) | Caixabank 3,24 (0,12%) | Cellnex 13,36 (0,53%) | DIA 4,47 (1,11%) | Enagas 23,88 (2,47%) | Endesa 19,83 (1,17%) | Ferrovial 16,90 (0,78%) | Gamesa 18,24 (-1,96%) | Gas Natural 16,72 (1,24%) | Grifols Sa 17,58 (4,92%) | IAG 5,26 (-0,83%) | Iberdrola 5,83 (1,37%) | Inditex 32,30 (1,27%) | Indra 10,02 (-0,45%) | Mapfre 3,05 (0,30%) | Mediaset Esp 10,30 (1,38%) | Meliá Hotels 10,48 (-0,05%) | Merlin Prop 9,99 (1,98%) | Red Electric 17,15 (2,17%) | Repsol Ypf 12,90 (-1,60%) | Santander Ce 4,87 (-1,14%) | Téc Reunidas 35,96 (-0,47%) | Telefonica 8,30 (0,74%) | Viscofan 46,32 (2,71%) ÚLTIMA HORA › Cierre en España: El Ibex35 suma un 0,26% y cierra en los 9169,6 puntos | Gamesa: Gamesa alcanza los 1.000 aerogeneradores instalados en Brasil | Microsoft: Microsoft compra LinkedIn por 25.000 millones tras la luz vede de Bruselas | Sacyr: Sacyr liquida 319,5 millones de deuda de Repsol | Iberonews: Las nuevas telas formadoras TransForm de Xerium proporcionan mejoras operacionales y reducción de costes a los fabricantes de cartón y embalaje | Iberonews: Trade Extensions: los consumidores confían en que los fabricantes y vendedores al por menor velan por los intereses de los proveedores | Apertura en España: El Ibex35 despierta en "rojo" pero cuida de los 9.100 puntos | Cierre en España: El BCE anima al Ibex35 que suma un 2,06% y alcanza los 9.100 enteros | BCE: El BCE prorroga su programa de compra de bonos hasta diciembre de 2017 | CaixaBank: CaixaBank, nuevo "Banco del Año 2016" en España por The Banker
 
 

Formación

>

Glosario

o empieza por: en la

Consulta el significado de una gran variedad de términos de bolsa.

Teoría de las redes neuronales

Sección: Análisis técnico

La corteza cerebral esta formada por una células denominadas neuronas, cada una de estas células está formada por un cuerpo, un axón, y una multitud de dentritas. Las dentritas forman una estructura de filamentos muy fina que rodean el cuerpo de la neurona. El axón es un tubo largo y delgado que se ramifica en su extremo en pequeños bulbos finales que casi tocan las dentritas de las células vecinas. La pequeña separación entre los bulbos finales y las dentritas se le denomina sinápsis. Los impulsos eléctricos viajan por el axón y hace contacto con las dentritas de la neurona vecina mediante las sinápsis. La intensidad de la corriente transmitida depende de la eficiencia de la transmisión sináptica. Una neurona en especial transmitirá un impulso eléctrico por su axón si suficientes señales de las neuronas vecinas transmiten a través de sus dentritas en un tiempo corto, denominado período de suma latente. La señal que se transmite a la neurona podrá ser además ya sea inhibitoria o excitatoria. La neurona dispara, esto es, manda el impulso por su axón, si la excitación excede su inhibición por un valor crítico, el umbral de la neurona.

Neuronas Artificiales
En la figura se representa ahora una neurona "artificial", que intenta modelar el comportamiento de la neurona biológica. Aquí el cuerpo de la neurona se representa como un sumador lineal de los estímulos externos zj, seguida de una función no lineal yj = f(zj). La función f(zj) es llamada la función de activación, y es la función que utiliza la suma de estímulos para determinar la actividad de salida de la neurona.

Este modelo se conoce como perceptrón de McCulloch-Pitts, y es la base de la mayor parte de las arquitectura de las RN (conglomerados de perceptrones) que se interconectan entre sí. Las neuronas emplean funciones de activación diferentes según la aplicación, algunas veces son funciones lineales, otras funciones sigmoidales (p.ej. la tanh), y otras funciones de umbral de disparo. La eficiencia sináptica se representa por factores de peso de interconección wij, desde la neurona i, hasta la neurona j. Los pesos pueden ser positivos (excitación) o negativos (inhibición). Los pesos junto con las funciones f(z) dictan la operación de la red neuronal. Normalmente las funciones no se modifican de tal forma que el estado de la red neuronal depende del valor de los factores de peso (sinápsis) que se aplica a los estímulos de la neurona.

Las RN puede tener factores de peso fijos o adaptables. Las RN con pesos adaptables emplean leyes de aprendizaje para ajustar el valor de la fuerza de un interconección con otras neuronas. Si las neuronas utilizan pesos fijos, entonces su tarea deberá estar muy bien definida a priori. Los pesos serán determinados a partir de una descripción completa del problema. Por otra parte, los pesos adaptables son esenciales si no se sabe a priori cual deberá de ser el valor correcto de los pesos.

Dos tipos de aprendizaje
Existen dos tipo de aprendizaje: supervisado y no supervisado. El primero ocurre cuando se le proporciona a la red tanto la entrada como la salida correcta, y la red ajusta sus pesos tratando de minimizar el error de su salida calculada. Este tipo de entrenamiento se aplica por ejemplo, en el reconocimiento de patrones. El entrenamiento no supervisado se presenta cuando a la red se le proporcionan únicamente los estímulos, y la red ajusta sus interconecciones basándose únicamente es sus estímulos y la salida de la propia red. Las leyes de aprendizaje determinan como la red ajustará sus pesos utilizando una función de error o algún otro criterio. La ley de aprendizaje adecuada se determina en base a la naturaleza del problema que se intenta resolver.

Dos fases de operación
Las RN adaptables tienen dos fases en su operación. La primera fase es el entrenamiento de la red. El usuario proporciona a la red un número "adecuado" de estímulos de entrada, y de salida, la red entonces ajusta su pesos de interconección o sinápsis hasta que la salida de la red esta "lo suficientemente cerca" de la salida correcta. La segunda fase es la recuperación de lo aprendido. A la red se le presenta un conjunto de estímulos de entrada y esta simplemente calcula su salida. Cuando la red emplea entrenamiento no supervisado, algunas veces será necesario que reajuste su sinápsis durante la fase de recuperación.

No son algorítmicas
La gran diferencia del empleo de las redes neuronales en relación con otras aplicaciones de la computación radica en que no son algorítmicas, esto es no se programan haciéndoles seguir una secuencia predefinida de instrucciones. Las RN generan ellas mismas sus propias "reglas", para asociar la respuesta a su entrada; es decir, aprende por ejemplos y de sus propios errores.

Asociar y generalizar sin reglas como en el cerebro humano
Las redes neuronales formadas por los perceptrones se interconectan en forma muy similar a como las neuronas humanas se disponen en la corteza cerebral humana, y lo más importante, son capaces de asociar y generalizar sin reglas. Han sido utilizadas con gran éxito para reconocer retornos de sonar bajo el agua, escritura a mano, voz, topografía de terrenos, controlar brazos de robots, evaluar datos personales, modelar fenómenos cognocitivos, y, predecir tendencias financieras.
Requieren de algún tipo de patrón La clase de problemas que mejor se resuelven con las redes neuronales son los mismos que el ser humano resuelve mejor: Asociación, evaluación, y reconocimiento de patrones. Las redes neuronales son perfectas para problemas que son muy difíciles de calcular pero que no requieren de respuestas perfectas-sólo respuestas rápidas y buenas. Tal y como acontece con el escenario bursátil en el que se quiere saber ¿compro?, ¿vendo?, ¿mantengo?.
Por otra parte, las redes neuronales son ineficaces para cálculos precisos, procesamiento serie, y no son capaces de reconocer nada que no tenga inherentemente algún tipo de patrón.
La red neuronal de Propagación hacia atrás :
El perceptrón solo es el ejemplo más elemental de una red neuronal, de hecho, no puede siquiera ser considerado una "red", puesto que no intervienen otros elementos.



Si se combinan varios perceptrones en una "capa", y los estímulos de entrada después se suman tendremos ya una red neuronal. Una red neuronal muy eficaz para resolver fundamentalmente problemas de reconocimiento de patrones es la red neuronal de propagación hacia atrás, en inglés back propagation network. En esta red, se interconectan varias unidades de procesamiento en capas, las neuronas de cada capa no se interconectan entre sí. Sin embargo, cada neurona de una capa proporciona una entrada a cada una de las neuronas de la siguiente capa, esto es, cada neurona transmitirá su señal de salida a cada neurona de la capa siguiente. La figura muestra un ejemplo esquemático de la arquitectura de este tipo de redes neuronales.

Redes Neuronales en los Mercados Financieros
El frustrante proceso por utilizar las redes neuronales para obtener resultados significativos con el mercado hacen dudar de la eficiencia de las mismas, el problema radica en que:
Utilizan normalmente redes comerciales existentes, mucho el modelo de propagación hacia atrás que fue explicado en los párrafos precedentes.
Es un problema muy complejo, pero sobre todo muy diferente a los casos que normalmente son manejados con redes neuronales.
En efecto, el problema es diferente por que en realidad no se conoce apriori la señal deseada de salida. Por lo tanto, a lo más que se puede llegar es a formular un modelo del mercado que en cierta forma genere una especie de promedio móvil, aquí tratan de extrapolar al futuro para predecir el comportamiento de la acción.

Palabras clave

teoría down, teoría de elliot,teoría de fibonacci

Términos similares

Publicidad
Mercados al día
Ticker Ultimo % Dif. Máximo Mínimo
EurUsd 1,05595 -0,5% -0,01 1,064 1,053
Ibex35 9.169,60 0,3% 24,20 9179 9093
NQ100 4.895,90 0,0% 0,00 4897 4877
SP500 2.259,53 0,6% 13,34 2260 2249

© Copyright 2016 Infomercados Servicios Financieros S.L. Tel: +34 91 179 81 92 info@infomercados.com



Síguenos en: Twitter Infomercados Facebook Infomercados Google+ Infomercados