Sunday 7 May 2017

Neuronale Netzwerke Forex Handel


MetaTrader 4 - Beispiele Rezepte f252r neuronale Netzwerke Einleitung Es ist noch nicht so lange ihr, als Hndler noch keine Computer fr die technische Analysieren Sie sich und versuchen Sie mit Hilfe von Formeln und Regelmigkeiten, die zu knftigen Kurse zu prognostizieren. Sie wurden oft als Scharlatane bezeichnet. Die Zeit verging, die Methoden der Informationsverarbeitung sind komplizierter geworden, und es gibt kaum noch Hndler, da die technische Analyse gleichgltig ist. Jeder Anfnger kann ganz einfach Chart, verschiedene Indikatoren und die Suche nach Regelmigkeiten nutzen. Die Zahl der Forex-Hndler wchst tglich. So steigen auch die Anforderungen der Methoden zur Marktanalyse. Eine dieser relativ neuen Methoden ist die Verwendung von theoretischen Fuzzy-Logiken und Neuronalen Netzwerken. Wir stellen fest, dass Fragen zu diesem Thema aktiv in verschiedenen thematischen Foren diskutiert werden. Es gibt sie und es wird sie ja. Ein Mensch, der den Markt einmal betreten hat, wird es kaum mehr verlassen. Es ist eine Herausforderung von der Intelligenz, das Gehirn und die Willensstrke. Deshalb hrt ein Hndler nie auf, etwas Neues zu lernen und verschiedene Anstze in der Praxis umzusetzen. In diesem Artikel werden wir die Grundlagen zur Erstellung Neuronaler Netze analysieren und mehr der Begriff des Kohonen neuronalen Netz erfahren. Auerdem werden wir ein wenig ber die Methoden der Handelsoptimierung sprechen. Dieser Artikel ist vor allem fr Hndler gedacht, die am Anfang sind beim Studieren der Neuronalen Netze und der Prinzipien der Informationsverarbeitung. Um ein Neuronales Netzwerk mit der Kohonen-Schicht zu kochen, bentigt Mann: 1) 10.000 historische Balken eines Whrungspaars 2) 5 Gramm gleitende Durchschnitte oder andere Indikatoren - stirbt ist deine Entscheidung 3) 2-3 Schichten der inversen Verteilung 4 ) Methoden der Optimierung als Fllung 5) wachsender Saldo und eine steigende Zahl an richtig erratenen Richtungen beim Handel. Abschnitt I. Rezept der Kohonen-Schicht Beginnen. Wir werden verschiedene Anstähle zum Einarbeiten der Kohonen-Schicht oder um genauer zu sein. Es gibt nicht alles Besonderes an diesem Kapitel, alle Erklärungen von den klassischen Referenzen zu diesem Thema. Der Vorteil dieser Kapitels ist aber der groe Anzahl von erluternden Abbildungen zu jedem Abschnitt. In diesem Kapitel werden wir auf folgende Fragen eingehen: - die Art und Weise wie Kohonen Wichtungsvektoren eingestellt werden - vorlufige Vorbereitung von Eingabevektoren - Auwahl der ursprnglichen Gewichtungen der Kohonen Neuronen. Laut Wikipedia reprsentiert ein Kohonen neuronales Netzwerk eine Klasse von neuronalen Netzwerken, das Hauptelement von ihnen die Kohonen-Schicht ist. Die Kohonen-Schicht besteht aus adaptiven linearen Addierern (lineare formale Neuronen). In der Regel werden die Ausgangssignale der Kohonen-Schicht nach der Regel der Gewinner bekommt alles verarbeitet: die grten Signale verwandeln sich in Einser, alle anderen Signale werden zu Nullen. Nun wollen wir diese Gedanken mit Hilfe eines Beispiels errtern. Zum Zwecke der Visualisierung werden alle Berechnungen fr zweidimensionale Eingabevektoren angegeben. In der Abb. 1 wird der Eingabevektor in Farbe dargestellt. Jedes Neuron der Kohonen-Schicht (wie auch bei jeder anderen Schicht) summiert einfach die Eingabe und multipliziert diese mit der Gewichtung. Eigentlich sind alle Gewichte der Kohonen-Schicht Vektor-Koordinaten fr dieses Neuron. Es ist eine Frage von jedem Kohonen Neuronen das Punktprodukt von zwei Vektoren. Von der Geometrie wissen wir, dass das maximale Punktprodukt entseht, wenn der Winkel zwischen den Vektoren Richtung Null tendiert (der Kosinus-Winkel tendiert zu 1). Der maximale Wert wird auch jener des Kohonen-Schicht Neurons sein, das am nhesten zum Eingabevektor ist. Abb.1 Der Gewinner ist das Neuron, dessen Vektor am nhesten zum Eingangssignal ist. Entsprechend der Definition Es gibt jetzt die Maximale Ausgabewert unter allen Neuronen finden Und die Kohonen-Schicht wird uns antworten, in welchem ​​Raumbereich der Eingabevektor liegt. Anpassung der Kohonen Gewichtungsvektoren Der Zweck der Einarbeitung mit der Kohonen-Schicht ist wie schon oben geschrieben, die przise Raumklassifizierung der Eingabevektoren. Dies bedeutet, dass es sich bei dem es ist. Der Abweichungsfehler des Gewinner-Neurons vom Eingabeneuron muss kleiner sein als jener der anderen Neuronen. Um das zu erreichen, verwandelt sich das Gewinner-Neuron in die Seite des Eingabevektors. Abb. 2 zeigt die Teilung von zwei Neuronen (schwarze Neuronen) fr zwei Eingabevektoren (die farbigen). Abb. 2: Jedes der Neuronen nhert sich sein nchsten Eingangssignal. Mit jedem Wiederholung nhert sich das Gewinner-Neuron. Seine neue Koordinaten Entstehen Sie den folgenden Abschnitt: a (t) der Parameter der Einarbeitunsgeschwindigkeit ist und von der Zeit t abhngt. Dies ist eine nicht ansteigende Funktion, die bei jeder Wiederholung von 1 auf 0 reduziert wird. Wenn der Anfangswert A1 ist, wird die Gewichtungskorrektur in einem Schritt geändert. Dies ist mglich, wenn es fr jeden Einangsvektor ein Kohonen-Neuron gibt (zum Beispiel 10 Eingabevektoren und 10 Neuronen in der Kohonen-Schicht). In der Praxis tritt so ein Fall aber schnell nie ein, da in der Regel das groe Volumen von Eingabedaten in Gruppen aufgeteilt werden muss, das ist die Vielfalt der Eingabedaten. Das ist der Wert A1 unerwnscht. Die Praxis zeigt, dass die optimale Anfangswert unter 0,3 sein sollte. Auerdem ist ein umgekehrt proportional zu der Anzahl der Eingabevektoren. Das heit bei einer groen Auswahl ist es besser, kleine Korrekturen vorbei, so dass das Gewinner-Neuron nicht durch den ganzen Raum in seinem Korrekturen surft. Als A-Funktionalitt wird in der Regel jeder monoton fallende Funktion gewhlt. Zum Beispiel Hyperbel oder Lineare Abnahme oder die Gau-Funktion. Abb. 3 zeigt den Schritt der Neuronengewichtungskorrektur bei der Geschwindigkeit A0,5. Das Neuron Hut sich dem Eingabevektor genhert, der Fehler ist kleiner. Abb. 3: Neuronengewichtungskorrektur unter dem Einfluss des Eingangssignals. Kleine Anzahl von Neuronen in einem Breiten Beispiel Abb. 4: Neuron Schwankungen zwischen zwei Eingabevektoren. In der Abb. 4 (links) gibt es zwei Eingabevektoren und nur ein Kohonen Neuron. Im Prozess der Korrektur wird das Neuron von einem Vektor zu einem anderen schwingen (gepunktete Linien). Da der A-Wert sich bis 0 verringert, stabilisiert es sich zwischen ihnen. Die Neuron-Koordinaten, die sich von Zeit zu Zeit ndern, knnen durch eine Zick-Zack-Linie charakterisiert werden (Abb. 4 rechts). Abb. 5: Abhündigkeit der Klassifikationsstufen der Anzahl von Neuronen. Eine weitere Situation wird in Abb. 5. Im ersten Fall liegen vier Neuronen die Probe ausreichend in vier Bereichen der Hyperkugel. Im zweiten Fall fhrt die ungengende Anzahl von Neuronen zu einem Fehler und zur Neuklassifizierung der Probe. Wir sind so geil, dass die Kohonen-Schicht eine ausreichende Anzahl von Neuronen. Vorlufige Vorbereitung der Eingabevektoren Wie Philip D. Wasserman in seinem Buch schreibt, ist es wnschenswert (wenn auch nicht obligatorisch), die Eingabevektoren zu normalisieren, bevor Sie sie im Netz einfhren. Dies wird durch das Aufteilen eines jeden Körpers des Eingabevektors durch die Vektorlnge erledigt. Diese Lnge wird durch die Extraktion der Quadratwurzel aus der Summe der Quadrate der Vektorkomponenten gefunden. Dies ist die algebraische Darstellung: Dies wandelt den Eingabevektor in einem Einheitsvektor mit der gleichen Richtung um, das heit ein Vektor mit der Lngeneinheit im n-dimensionalen Raum. Die Bedeutung dieser Operation ist klar - das Pojizieren aller Eingabevektoren auf der Oberflotte der Hyperkugel, die die Kaserne-Schicht zu suchen, erleichtert wird. Mit anderen Worten, fr die Suche nach dem Winkel zwischen den Eingabevektoren und den Vektoren-Kohonen-Neuronen. Sehr oft haben die Elemente von Probevektoren keine negativen Werte (zum Beispiel Werte von Moving Averages, Kursen). Sie alle konzentrieren sich auf den positiven Quadranten im Raum. Als Ergebnis der Normalisierung eine solche positiven Probe erhalten wir die groe Ansammlung von Vektoren in nur einem positiven Bereich, war nicht sehr gut fr die Qualifikation ist. Kann vor der Normalisierung der Probe eine Glttung durchgefhrt werden. Wenn die Probe ziemlich gro ist, knnen wir davon ausgehen, dass sich die Vektoren in etwa in einem Bereich befinden. Mir kann eine Probe relativ zu ihren Extremen Koordinaten zentriert werden. Abb. 6: Normalisierung der Eingabevektoren. Wie oben geschrieben, ist die Normalisierung der Vektoren wnschenswert. Sie vereinfacht die Korrektur der Kohonen-Schicht. Wir haben eine Probe darstellen und entscheiden, ob sie auf einer Kugel projiziert werden soll oder nicht. Liste 1. Verschmlerung der Eingabevektoren im Bereich -1, 1 Wenn wir die Eingabevektoren normalisieren, werden wir auch dementsprechend alle Neuronen-Gewichtungen normalisieren. Auswahlen der ursprnglichen Neuronen-Gewichtungen Die Müllsicherungen sind zahlreich. 1) Zufallige Werte werden die Höhenwerte, die sich mit den Neuronen gemacht werden (Randomisierung) 2) Initialisierung durch Beispiele, wenn Werte von zufllig ausgewhlten Beispielen aus einer Einarbeitungsprobe als Anfangswerte sind 3) Lineare Initialisierung. In diesem Fall werden die Gewichtungen durch Vektorwerte initiiert, die lineare Strecke des gesamten linearen Raums zwischen zwei Vektoren aus dem ursprnglichen Datensatz sind sind. 4) Alle Gewichtungen haben den gleichen Wert - Methode der konvexen Kombination. Lassen Sie uns den ersten und letzten Fall analysieren. 1) Zufallswerte werden die Gewichtungen zugeordnet. Whrend der Randomisierung werden alle Vektor-Neuronen auf der Oberflasche einer Hyperkugel verteilt. Whrend die Eingabevektoren eine Tendenz zur Gruppierung haben. Deutsch - Übersetzung - Linguee als Übersetzung von "in diesem fall" vorschlagen Linguee - Wörterbuch Deutsch - Englisch Andere Leute übersetzten. 7 (rechts). Darber hinaus werden die verbleibenden Neuronen nicht ausreichen, um den Fehler zu minimieren und hnliche Klassen zu unterteilen - die rote Klasse ist im grnen Neuron enthalten. Abb. 7: Einarbeitungsergebnis von randomisierten Neuronen. Und wenn es eine groe Ansammlung von Neuronen in einem Bereich gibt, knnen mehrere Neuronen in den Bereich einer Klasse eindringen und diese in Unterklassen teilen - orangefarbener Bereich in Abb. 7. Dies ist nicht kritisch, da die Weiterverarbeitung der Schichtsignale die Situation beheben kann. Stirbt dauert aber die Einarbeitungszeit ber. Eine der Varianten zum Lsen diese Probleme ist die Methode, wenn bei den Anfangsstufen die Korrektur nicht nur fr Vektoren eines anderen Neurons gemacht wird, sondern auch fr die Gruppe von Vektoren, die am nchsten liegt. Dann wird sich die Anzahl der Neuronen in der Gruppe allmhlich verringern und letztendlich wird nur ein Neuron korrigiert. Eine Gruppe kann aus einem sortierten Array von Neuronen-Ausgngen ausgewhlt werden. Neuronen von den ersten K Maximal-Ausgangssignalen werden korrigiert. Eine weitere Vorgehensweise zur gruppierten Anpassung der Gewichtungsvektoren ist das folgende Verfahren. Deutsch: www. germnews. de/archive/gn/1995/04/23.html. B) Ein Neuron mit minimalem Abstand wird zum Gewinner Wn. Danach wird eine Gruppe von Neuronen gefunden, die in Korrelation zu den Grenzen der Distanz CLn von Wn stehen. C) Gewichtungen dieser Neuronen werden durch eine einfache Regel korrigiert. Es wird die Korrektur der gesamten Probe gemacht. Der Parameter hat sich in der Hölle des Kandidaten um die. N ist hier die Gre der Probe, k - die Anzahl der Neuronen. Das heit, ein der Neuronen wird zum anderen als anderen. Es ist das Spiel wenn das Passieren der Probei vorbei ist. Wirken auch andere neuronen lernen. 2) Methode der Konvexkombination Die Bedeutung des Verfahrens enthält, dass auch die einheitlich. Die Berechnungsformeln der Besten. Die Berechnungsformeln sind nicht mehr. Mit jeder Wiederholung erhht sich dessen Wert von 0 auf 1, mit allen Gewichtungsvektoren bereinstimmen und schlielich ihre Pltze einnehmen. Auerdem sind die Gewichtungsvektoren nach ihren Klassen greifen. Dies sind alle Materialien zur Basisversion der Kohonen-Schicht, die in diesem neuronalen Netzwerk angewendet werden. II. Lffel, Schpfkellen und Skripte Das erste Skript, das wir diskutieren werden, sammelt Daten ber Balken und erstellt eine Datei von Eingabevektoren. Lassen Sie uns MA als Traininsema verwenden. Liste der Schauspielerin. Die Datendatei wird als Mittel zur Bertragung von Informationen zwischen Anwendungen geschaffen. Wenn Sie die Einarbeitungs-Algorithmen kennenlernen, wird dringend empfohlen, dass Sie die Zwischenergebnisse ihre Aktivaten, die Werte einiger Variablen und Falls notwendig, die nderungen der Traininsbedingungen beobachten. Deutsch - Englisch - Übersetzung - Linguee als Übersetzung von "in der mMS5" vorschlagen Linguee - Wörterbuch Deutsch - Englisch Andere Leute übersetzten. Englisch: www. magazine-deutschland. de/issue/S...6_ENG_E1.php. Spter, wenn Sie alle Tcken Ihre Algorithmen und Funktionen erfahren, knnen Sie beginnen, MQL4 zu verwenden. Auerdem mssen Sie das endgltige Ziel (Indikator oder Expert Advisor) in MQL4 schreiben. Verallgemeinerte Struktur der Klassen Liste 3. Klasse des Neuronalen Netzwerks Eigentlich ist die Klasse nicht komplex. Sie enthalten die wichtigsten Satz Service Variable. Lassen Sie uns sie analysieren Auf Anweisung des Befehls vom Benutzer, erstellt die Schnittstelle-Klasse einen Arbeits-Thread und initialisiert einen Timer fr das periodische Auslesen der Netzwerkwerte. Sie empfänglich auch Indexe zum Auslesen der Informationen aus Parametern neuronaler Netzwerke. Der Arbeits-Thread-Tuch der Lacktier-Arrays von der Einstufung. Dies ist die Vorbereitungsphase. Danach rufen wir die Funktion CNeuroNet :: Init auf, in der die Gewichtungen initialisiert werden, die Probe normalisiert wird und die Einstellparameter eingestellt werden (Geschwindigkeit, Impuls, Pflichtlicher Fehler und die Anzahl der Traininszyklen). Und einmal danach rufen wir die Arbeitspferd Funktion - CNeuroNet :: TrainNetwork (oder trainMPS oder TrainNetwork (int L) auf, je nachdem, wurde wir erhalten!). Wenn die Einarbeitung vorbei ist, speichert der Arbeits-Thread die Netzwerkgewichtungen in einer Datei fr die Implementierung der letzten in einen Indikator oder Expert Advisor. III. Backen des Netzwerks Kommen wir uns zu den Problemen beim Einarbeiten. Die bliche Praxis in der Einarbeitung legt das Paar Muster-Lehrer fest Das ist ein bestimmtes Ziel. Auf der Grundlage der Differenz zwischen der aktuellen und der Sollwert wird die Korrektur der Gewichtungen durchgefhrt. Zum Beispiel mchte ein Forscher haben, das das Netz den Kurs des winkelnden Balkens geschehen der vorherigen 10 Balken prognostiziert. In diesem Fall mssen wir nach der Eingabe der 10 Werte das erhaltene Ergebnis mit dem Lernwert vergleichen und dann die Gewichtungen fr den Unterschied zwischen ihnen korrigieren. In dem Modell, das wir anbieten, gibt es keine Lern-Vektoren im blichen Sinne, da wir nicht im Voraus wissen, bei welchen Balken wir den Markt betreten oder verlassen. Das Wissen, das sich in der Schiedsrichter befindet. Ausgabewerte korrigieren wird. Das bedeutet, dass das Netzwerk versucht wird, die Maximale der Hölle. Betrachten wir das Beispiel in Abb. 8. Abb. 8: Schema des eingearbeiteten neuronalen Netzwerks. Die Kohonen-Schicht, die mit einer Probe voreingearbeitet ist. Bei der Ausgabe der letzten Schicht des Netzwerks, haben wir den Wert OUT, der auf folgende Weise interpretiert wird. Wenn OUT gt0,5 ist, gehen Sie eine Kaufposition ein wenn OUT lt0,5 ist, gehen Sie eine Verkaufsposition ein (die sigmoiden Werte werden in Grenzen verndert 0, 1). Angenommen zu einem gewissen Eingabevektor X 1 Hut das Netzwerk durch die Ausgabe OUT 1 gt0,5 geantwortet. Das, das ist auf dem Balken, zum dem das gewehrt, wir eine Kaufposition ffnen. Danach verwandelt sich bei der chronischen Darstellung der Eingabevektoren nach einigen X k das Zeichen OUT k in das Gegenteil. Folglich schließen wir die Kaufposition und ffnen eine Verkaufsposition. Genau in diesem Moment mssen wir das Ergebnis der geschlossenen Bestellen. Wenn wir einen Gewinn erhalten, knen wir Diesn Alarm gestrichelt. Oder wir knnen erachten, dass es keinen Fehler gibt und wir nichts korrigieren werden. Wenn wir einen Verlust erhalten, korrigieren wir die Gewichtungen der Schichten in einer solchen Weise, dass die Eingabe durch den Alarm des X 1 Vektors OUT 1 lt0,5 anzeigt. Nun wollen wir den Wert der Lern - (Ziel) - Ausgabe berechnen. Lassen Sie uns also den Wert eines Sigmoiden aus dem erhaltenen. (In Punkten) nehmen und multiplizieren ihn mit dem Zeichen der Handelsrichtung. Folglich vergoldet, dass je grer der Verlust ist, desto stärke das Netzwerk bestraft und seine Gewichtungen durch den greren Wert korrigieren werden wird. Wenn wir zum Beispiel sind, ist es nicht möglich, die Ausgabeschichten in der Pots begrenzen zu lassen. Wir mssen auch 3 Ereignisse verfolgen: 1) nderung des OUT Zeichens, 2) Kursnderungen vom Ergnungspreis durch den Wert von TP, 3) Kursnderungen vom Erffnungskurs durch den Wert - SL. Wenn eines dieser Ereignisse auftritt, wird die Korrektur der Gewichtungen auf analoge Weise durchgefhrt. Wenn wir einen Gewinn erhalten, bleiben die gewichteungen unverndert oder sie werden korrigiert (strkeres signal). Wenn es einen Verlust haben, werden die Gewichtungen korrigiert, damit die Eingabe durch den Alarm vom X 1 Vektor OUT 1 mit dem gewnschten Zeichen anzeigt. Der einzige Nachteil dieser Begrenzung ist die Tatsache, dass Wir absolut TP und SL Werte verwenden, war bei einem Längen Zeitraum unter aktuellen Marktbedingungen nicht so gut fr die Optimierung eines Netzwerks ist. Meine persnliche Bemerkung dazu ist, dass TP und SL nicht weit entfernt. Das ein, das das System symmetrisch sein muss, um whrend der Einarbeitung eine abweichung Es gibt auch eine Meinung, das der TP 2-4 mal grer als der SL sein sollte - so erhhen wir knstlich das verhltnis von profitablen und verlustbringenden Trades. Aber in solch ein Fall besteht die Gefahr, dass die Einarbeitung des Netzwerks mit einer Verschiebung in Richtung Trend erfolgt. Natrlich knnen beide Varianten existieren, aber Sie sind bei Ihren Untersuchungen berprfen. Liste 4. Eine Wiederholung des Setups fr die Netzwerkgewichtung Durch diese einfache Arbeitsgut wird das Netzwerk letztlich die erhaltenen Klassen aus der Kohonen-Schicht in einer bestimmten Weise verteilt, dass es fr alle einen Alarm zum Markteinstieg mit dem entsprechenden Maximalgewinn gibt. Aus der Sicht der Statistik - wird ein Eingabemuster durch das Netz. Whrend ein und derselbe Eingabevektor whrend des Vorgangs zur Gewichtungsanpassung Alarme in verschiedenen Richtungen geben kann, wird allmhlich die maximale Anzahl der richtigen Vorhersagen erhalten. Diese Methode kann als dynamisch beschrieben werden. Das verwendete Verfahren wird auch als MPS (Profit Maximizing System) bezeichnet. Hier sind Sorten der Anpassung von Netzwerkgewichtungen. Jeder Punkt im Diagramm ist der Wert des erhaltenen Gewinns in Punkten whrend des Einarbeitungszeitraums. Das System ist immer Marktaktuell, TakeProfit StopLoss 50 Punkte, Fixierung erfolgt nur durch einen Stop-Order, Gewichtungen werden bei Gewinn oder Verlust korrigiert. Sie sehen, nach dem negativen Start werden die Gewichtungen der Schichten angepasst, so dass nach etwas hundert Wiederholungen, der Gewinn positiv wird. Interessant ist die Tatsache, das das System bei einigen Niveaus etwas langsamer wird. Stirbt mit den Parametern der Einarbeitungsgeschwindigkeit zusammen. Wie Sie in der Liste 2 sehen knnen, wird der Gewinn ProfitPos durch die Schlusskurse der Balken berechnet, auf diese wir die Position erifnet und die Bestimmungsorte (Stop-Order oder Alarmnderung) eingetroffen sind. Natrlich ist dies ein grobes Verfahren, hier im Fall von Stop-Orders. Wir sind durch das Analysieren von Hochs und Tiefs des Balkens (bar1ipat und bar2ipat) eine Verfeinerung hinzufgen. Sie knnen versuchen, stirbt selbst zu tun. Suche nach Einstiegen Wir haben auch das dynamische Einmalverfahren. Sie haben sicher bemerkt, dass wir nach dem Algorithmus immer den Markt betreten mit fixem GewinnVerlust. Wir haben uns auch die Einstiege begrenzen und versuchen, nur bei gnstigen Das sich in der Markt von den profitablenverlustbringenden trades abhngig machen mssen. Dies kann sehr leicht durchgefhrt werden. Lassen Sie uns sterben Variable 0ltMlt0,5 vorstellen, das das Kriterium eines Markteintritts sein wird. Wenn Outgt0,5M, dann kaufen Sie, wenn Outlt0,5-M, dann verkaufen Sie. Wir kristallisieren Ein-und Ausstiege mit Hilfe von Vektoren heraus, die zwischen 0,5-MltOutlt0,5M liegen. Ein weiteres Verfahren zum Aussieben von unntigen Vektoren ist das Sammeln von statistischen Daten auf die Rentabilittieren von den Werten bestimmtter Ausgaben des Netzwerks. Nennen wir es eine visuelle Analyse. Davor ist das Verfahren zur Positionsschließe definieren - Erreichen der Stop-Order, nderung des Netzwerk-Ausgabesignals. Lassen Sie uns eine Tabelle erstellen. ProfitPos. Die Werte von Out und ProfitPos werden fr jeden Eingabevektor (das heit fr jeden Balken) berechnet. Dann lassen Sie uns eine Bersichtstabelle zum ProfitPos Feld machen. Als Ergebnis werden wir die Abhanggigkeit zwischen dem Aus Wert und dem erhaltenen Gewinn sehen. Whlen Sie den Bereich Out M Lo. M Hallo In den wir den besten. Zurck zu MQL4 nach uns mit der Entwicklung in VC begonnen haben, haben wir nicht versuchen, die Mglichkeiten von MQL4 zu wrdigen. Stirbt aus Grnden der Bequemlichkeit. Ich werde dir ein Erlebnis erzhlen. Vor kurzem hat eine meiner bekannte versucht, eine Datenbank ber Firmen in unserer Stadt anzulegen. Es gibt eine Menge von Verzeichnissen im Internet, aber niemand wollte die Datenbank verkaufen. Wir schrieben auch ein Skript in MQL4. Das die HTML-Seite scannt und einen Bereich mit Informationen ber ein Unternehmen auswhlt und diese in einer Datei speichert. Danach haben wir die Datei in Excel bearbeitet und die Datenbank von drei groen gelben Seiten mit allen Telefonnummern, Adressen und Firmenaktivitten Krieg fertig. Stirbt die vollstndigste Datenbank der ganzen Stadt fr mich war es das Gefhl von Stolz und Leichtigkeit, war die Mglichkeiten von MQL4 betrifft. Natrlich kann man ein und dieselbe Aufgabe in verschiedenen Programmiersprachen lsen, aber es ist besser die eine zu whlen, die licht MglichkeitenSchwierigkeit fr eine bestimmte Aufgabe die optimale ist. Nach dem Einarbeiten des Netzwerks haben wir jetzt alle seine Parameter in einer Datei speichern, um sie nach MQL4 zu transferieren. - Deutsch - Englisch - Übersetzung - Linguee als Übersetzung von "kapital" vorschlagen Linguee - Wörterbuch Deutsch - Englisch Andere Leute übersetzten. Lassen Sie uns einen eintragenvektor fr jeden Balken bilden, den Wert der Netzwerkausgabe berechnen und den Indikator 6 bauen. Wenn wir uns schon fr en frisch sind. Ein Beispiel des Codes NeuroInd. mq4 ist dem Artikel angehngt. IV. Kreativer Ansatz Fr eine gute Umsetzung haben wir einen breiten Verstand haben. Neuronale Netzwerke sind nicht die Ausnahme. Ich denke nicht, dass die angebotene Variante ideal ist und fr jede Aufgabe geeignet ist. Hier sind Sie nach dem eigenen Lsungen suchen, das allgemeine Bild aufzeichnen, systematisieren und Ideen berprfen. Nachfolgend finden Sie einige Warnungen und Empfehlungen. - Netzwerk-Anpassung. Ein Neuronales Netzwerk ist ein Annherer. Ein Neuronales Netzwerk stellt eine Kurve ihr, wenn es Knotenpunkte bekommt. Wenn die Menge der Punkte zu gro ist, wird der zuknftige Aufbau schlechte Ergebnisse liefern. Alte Verlaufsdaten werden von der Einarbeitung entfernt und neue werden hinzugefügt. Dies ist, wie die Annherung ein ein neues Polynom durchgefhrt wird. - bereinarbeiten Dies kommt bei der idealen Anpassung vor (oder wenn es bei der Einarbeitung zu viele Eingabewerte gibt). Wenn ein Netzwerk ein Testwert gegeben wird, erhalten wir als Ergebnis ein falsches Ergebnis (Abb. 9). Abb. 9: Ergebnis einer bereingearbeiteten Netzwerks - falsche Prognose. - Komplexitt, Wiederholbarkeit, Widerspruchlichkeit ein Einarbeitungsprobe. In den Arbeiten 8, 9 analysieren Autoren die Abhngigkeit zwischen den aufgezhlten Parametern. Ich nehme an, es ist klar, dass wenn verschiedene Lernvektoren (oder fällt noch schlimmer, breiterspringen) ein und dem gleichen Lernvektor entsprechen, ein Netzwerk nie lernen, sie richtig zu klassifizieren. Deutsch - Übersetzung - Linguee als Übersetzung von "da diesem" vorschlagen Linguee - Wörterbuch Deutsch - Englisch ausschließlich englische Resultate für. Abb. 10 zeigt diese abhngigkeit. Je hher der Komplexitt eines Vektors ist, desto geringer ist die Wiederholbarkeit und Widerspruchlichkeit von Mustern. Abb. 10: Abhanggigkeit der Eigenschaften von Eingabevektoren. - Einarbeiten des Netzwerks nach der Methode von Boltzmann. Diese Methode ist hnlich wie verschiedene mgliche Gewichtungsvarianten zu versuchen. Die knstliche Intelligenz eines Expert Advisors arbeitet nach dem hnlichen Prinzip. Beim Einarbeiten eines Netzwerks geht es durch alle Varianten der Gewichtungswerte und wie die Knacken eines Mailgox-Passworts Dies ist eine arbeitsintensive Aufgabe fr einen Computer. Es ist die Anzahl aller Gewichte eines Netzwerks auf zehn begrenzt. Wenn sich die Gewichtung zum Beispiel von 0 auf 1 (mit einem Schritt von 0,01) ndert, bentigen wir dafr 100 Schritte. Fr 5 Gewichtungen bedeutet 5100 Kombinationen. Dies ist eine groe Zahl und diese Aufgabe geht die Leistung eines Computers. Der einzige Weg, um ein Netzwerk nach dieser Methode zu bauen ist, eine groe Anzahl von Computern zu verwenden. Diese Aufgabe kann von 10 Computern ausgefhrt werden. Jeder wird 510 Kombinationen verarbeitet, so dass ein Netzwerk komplexer gemacht kann, da es kann eine grere Anzahl von Gewichtungen, Schichten und Schritten verwendet werden. Im Unterschied zu einem Brachialen Angriff, wirkt die Methode von Boltzmann sanfter und schneller. Bei jeder Wiederholung wird eine zufllige Verschiebung auf die Gewichtung eingestellt. Wenn das System mit der neuen Gewichtung seine Eingabecharakteristik wird, wird die Gewichtung akzeptiert und eine neue Wiederholung durchgefhrt. Wenn eine Kraftung der Ausgabefehler erhht, wird sie akzeptiert, wenn sie durch die Boltzmann Verteilungsformel berechnet wurde. Also kann die Netzwerkausgabe am Anfang absolut verschiedene Werte haben. Eine allmhliche Abkuktur bringt das Netzwerk zum bit globalen Minimum 10, 11. Natrlich ist stirbt nicht die vollstndige Liste deine weiteren Studien. Es gibt auch genetische Algorithmen, Methoden zur Verbesserung der Konvergenz, Netzwerke mit Speicher, Radialnetzwerke, Verbund von Rechern, usw. Ich bin nochmals ein, das ein neuronales Netzwerk kein Heilmittel fr alle Probleme beim Handeln ist. Derjenige, der eine Unabhanggige Arbeit und die Erstellung hat, ist eine neue Person und eine andere Person. Deutsch: www. tab. fzk. de/de/projekt/zusammenf...ng/index. html. Haben Sie nur keine Angst vor Experimente Viel Glck und Groe Gewinne Der Markt ist ein Intellekt, das Finanzportfolio ist ein Neuronales Netzwerk. Referenzen 1. Baestaens, Dirk-Emma Van Den Bergh, Willem Max Wood, Douglas. Neuronale Netzwerklösungen für den Handel mit Finanzmärkten. 2. Voronovskii G. K. und andere. Geneticheskie algoritmy, iskusstvennye neironnye seti i problemy virtualnoy realnosti (Genetische Algorithmen, knstliche neuronale Netzwerke und Probleme der virtuellen Realitt). 3. Galuschkin A. I. Teoriya Neironnyh setei (Theorie von neuronalen Netzwerken). 4. Debok G. Kohonen T. Analysieren von Finanzdaten mit selbstorganisierenden Karten. 5. Ezhov A. A. Shumckii S. A. Neirokompyuting i ego primeneniya v ekonomike i biznese (Neuronale Datenverarbeitung und ihre Verwendung in der Wirtschaft und Unternehmen). 6. Ivanov D. V. Prognozirovanie finansovyh rynkov s ispolzovaniem neironnyh setei (Prognose der Finanzmrkte mit knstlichen neuronalen Netzwerken) (Diplomarbeit) 7. Osovsky S. Neural Networks for Data Processing . 8. Tarasenko R. A. Krisilov V. A. Vybor razmera opisaniya situatsii pri formirovanii obuchayushchey vyborki dlya neironnyh setei v zadachah prognozirovaniya vremennyh ryadov (Die Wahl der Situation, Beschreibung, Gre beim Formen einer Einarbeitungsprobe fr neuronale Netzwerke zur Prognose bei Zeitreihen). 9. Tarasenko R. A. Krisilov V. A. Predvaritelnaya otsenka kachestva obuchayushchey vyborki dlya neironnyh setei v zadachah prognozirovaniya vremennyh ryadov (Vorlufige Schtzung der Qualitt einer Einarbeitungsprobe fr neuronale Netzwerke zur Prognose bei Zeitreihen). 10. Philip D. Wasserman. Neral Computing: Theory and Practice. 11. Simon Haykin. Neural Networks: A Comprehensive Foundation. 12. wikipedia. org 13. Das Internet. bersetzt aus dem Russischen von MetaQuotes Software Corp. Originalartikel: mql5ruarticles1562

No comments:

Post a Comment