Chronologie boerse.de

Wahl zum „Online-Broker 2018“ – Die Ergebnisse

Inhaltsverzeichnis.

Diese Prämien stehen für Sie zur Auswahl: Unser Kaffeepott.. Der gehört wirklich auf den Tisch eines jeden Stuttgarter Aktienbrief-Fans. Getrunken. gegründet, ist virfac.info Europas erstes Finanzportal, das heute ein breitgefächertes kostenloses Angebot an Informationen rund um die Themen Börse und Vermögensbildung anbietet.

Warum der Dax auf 100.000 Punkte steigen wird

gegründet, ist virfac.info Europas erstes Finanzportal, das heute ein breitgefächertes kostenloses Angebot an Informationen rund um die Themen Börse und Vermögensbildung anbietet.

Dabei legen wir den Fokus auf Aktualität und eine laufende Verbesserung des Nutzererlebnisses, wobei das Finanzportal kontinuierlich weiterentwickelt wurde. Wie stark dieser Wandel ist, wird anhand der Veränderungen auf der Startseite von boerse. Das Angebot von www. Zu erreichen waren grundsätzlich Punkte, wobei eine Übererfüllung der Kriterien von mehr als Punkten besonders honoriert wurde. Dabei gelang es einzig boerse. Von den damals untersuchen 37 Finanzportalen wird heute übrigens nur noch die Hälfte von den damaligen Inhabern betrieben, denn viele Finanzportale wurden übernommen oder eingestellt.

Mit monatlich mehr als Hervorgegangen aus dem gegründeten boerse. Dort werden auch die aktuellen Wertveränderungen aller Musterdepots und Watchlisten angezeigt, die Sie angelegt haben. Hier können Sie sich anmelden. In den Spezialreports von boerse. So wird beispielsweise erklärt, welche Aktien seit über Jahren Dividenden ausschütten, welche Titel zu favorisieren sind, und wie mit nur 10 Euro monatlich die erste Million erreicht werden kann.

Für folgende Aktivitäten werden Nutzern Bullen als Dankeschön gutgeschrieben:. Die Nutzung von myBAC ist völlig kostenlos. Beschenken Sie sich einfach selbst, denn schon bei der Registrierung erhalten Sie zum Start Prämienbullen gutgeschrieben.

Um die Menge der zu betrachtenden Trends zu minimieren ist mandatorisch zu definieren welcher Zeitraum als langfristig, kurzfristig oder mittelfristig gültig ist. Mittelfristige Trends sind als gleichbleibende Trendverläufe von drei Wochen bis mehreren Monaten definiert. Alle Trendverläufe, die kürzer als drei Wochen andauern, werden als kurzfristiger Trend definiert [64]. Zusammenfassend wurde definiert, dass Trends aus Gipfeln und Tälern bestehen. An dem Zeitpunkt an dem ein Tal niedrig genug ist, wechselt das Verkaufsverhalten in ein Kaufverhalten.

Hierdurch wird der vorherrschende Abwärtstrend zu einem Aufwärtstrend. Dieser exakte Zeitpunkt wird als Unterstützung definiert. Vice versa wird der exakte Zeitpunkt eines Wechsels von Aufwärtstrend zu Abwärtstrend als Widerstand definiert [65]. Darstellung von Unterstützung und Widerstand. Eine Widerstandslinie ist nicht ausserstande einen steigenden Trend zu unterbrechen, infolge dessen ist die Widerstandlinie als kurzzeitige Unterbrechung definiert.

Ein fortgesetzter Aufwärtstrend kann dadurch bestimmt werden, dass die sukzessive aufeinander folgenden Unterstützungen einen höheren Kurspunkt beschreiben, als die jeweilige vorhergehende Unterstützung. Ein fortgesetzter Abwärtstrend ist bestimmbar, sobald die sukzessive aufeinander folgenden Widerstände tiefere Kurspunkte beschreiben, als der jeweilige vorangegangene Widerstand. Es ist unumgänglich zu definieren wie Kurswechsel bestimmt wird.

Ein Kursabfall kann bestimmt werden, sobald in einem Aufwärtstrend ein Kursabfall die vorhergegangene Unterstützungslinie unterschreitet. Die Bestimmung eines Kursanstiegs oder Kursabfalls, ermöglicht eine Trendumkehrung oder den Übergang in einen Seitwärtstrend [67]. Wird nach einem Trendwechsel von einem Abwärtstrend die höchste bisherige Widerstandslinie deutlich überschritten wird diese beim Trendwechsel als neue Unterstützungslinie gewertet.

Dieses vorgehen nennt sich Rollentausch von Unterstützung und Widerstand [68]. Darstellung eines Rollentausches zwischen Widerstand und Unterstützung. Markteinflüsse, die sich der Annahme nach wiederholen müssten, können dabei für eine Vorhersage verwendet werden.

Grundlage für die zu lernenden Daten sind einerseits die Quellen, welche zur Prognosenerstellung benötigt werden und zum anderen die Methodik, um diese auswerten zu können. Um Aktienprognosen mittels Machine Learning erstellen zu können, müssen zu Beginn die Quellen hinsichtlich der benötigten Daten definiert werden. Für eine Prognose sollten die Daten aus Quellen stammen von der sich auch andere Aktieninhaber Informationen beschaffen würden, um somit ein Verhalten zwischen Angebot und Nachfrage besser bestimmen zu können.

Quellen die Informationen über zukünftige Dividenden, Zinssätze und zukünftige Kurse liefern sind hierfür geeignet. Die Informationen können automatisiert aus Onlineportalen bzw. Nachrichtenmagazinen entnommen oder manuell eingegeben werden. Bei einer manuellen Eingabe ist eine weitere Kontrolle durch den Anwender möglich was auf der einen Seite zwar den Aufwand erhöht, aber auf der anderen Seite sicherstellt das nur geprüfte Daten für eine Prognose verwendet werden.

Als Grundlage für die maschinelle Auswertung der Daten, wird in dieser Arbeit auf das neuronale Netz weiter eingegangen. Ein neuronales Netz besteht aus künstlichen Neuronen und stellt einen Teil der künstlichen Intelligenz dar. Bei der Mustererkennung, Kategorisierung oder auch Prognose werden neuronale Netze erfolgreich eingesetzt [72]. Im Gegensatz zu einem Computerprogramm müssen neuronale Netze nicht programmiert oder auf eine bestimmte Situation angepasst werden.

Mit vorhandenen Daten kann so ein Netz angelernt werden und auf Grundlage dessen, in einer neuen bzw. Intern arbeitet ein Netz mit unterschiedlichen Neuronen die miteinander in verschiedenen Schichten verknüpft sind. In einigen Anwendungsfällen, wird auf die Verwendung eines Hiddenlayer verzichtet. Dann werden die Informationen direkt von dem Input- an den Outputlayer weitergegeben.

Die Neuronen haben so gesehen als Aufgabe Informationen aus der Umwelt oder von anderen Neuronen aufzunehmen und diese in abgewandelter Form weiterzugeben. Durch den Lernstand können die Neuronen individuell Verknüpfungen zu anderen Neuronen aufbauen, Gewichtungen ändern oder Verknüpfungen trennen [75]. Wie bereits erläutert, sind die einzelnen Neuronen mit einer Gewichtung verknüpft. Eine positive Gewichtung gibt an, dass ein Neuron einen erregenden Einfluss auf den nächsten Layer ausübt. Bei einem Wert von Null wird keine Wirkung auf die nächste Schicht ausgeübt.

Neben der Gewichtung wird das Ergebnis zum nächsten Neuron auch durch dessen Output-Leistung oder auch Output-Betrag genannt, beeinflusst. Erst die Multiplikation zwischen Output-Betrag und Gewichtung ergibt das Ergebnis welches als Input an das nächste Neuron weitergeben wird. Input für das nächste Neuron kann auch als Formel angegeben werden: Input der Unit i: Der Inhalt des Outputlayers wird durch die Anordnung bzw. Gewichtung der einzelnen Neuronen bestimmt.

Eine kleine Veränderung der Gewichtung kann somit schon das Ergebnis der vorhin im Beispiel genannten Kreditzusage beeinflussen. Im Folgenden wird ein exemplarisches Beispiel gezeigt, wie die einzelnen Verbindungen der Neuronen bewertet werden können. Aufbau eines neuronalen Netzes mit Gewichtungsbeispiel.

Aufbau eines neuronalen Netzes mit Bias-Neuronen. Durch die Aktivierungsfunktion der Neuronen, kann das Ergebnis auch weiter beeinflusst werden. Eine weitere Möglichkeit die Ausgabe zu beeinflussen stellt das Bias-Neuron bzw.

Die Gewichtung fällt entweder positiv oder negativ auf die anderen Neuronen aus. Bei einer positiven Gewichtung sorgt das Bias-Neuron dafür, dass die empfangene Einheit auch aktiv bleibt, wenn kein starker positiver Input der anderen Neuronen vorliegt. Bei einer negativen Gewichtung besteht die Gefahr das die verbundenen Units in einem negativen bzw.

Weiterhin ist einen Negativen Gewichtung von Vorteil, wenn ein Schwellenwert simuliert werden soll. Ein bestimmtes Ergebnis wird nur durch übersteuern des Bias-Neurons zugelassen. Die anderen Input-Neuronen müssen somit ungefähr ein einheitliches Ergebnis wiederspiegeln, um das Bias-Neuron übersteuern zu können.

Der Bias-Wert ist somit eine Stellschraube, um das Ergebnis anpassen zu können [80]. Bevor Daten für die Erstellung lernfähiger Merkmale verwendet werden können, müssen diese zunächst Aufbereitet werden.

Ein sauberer Datenbestand ist die Grundlage des Machine Learning. Der Computer wird auch mit dem besten Klassifikationsverfahren bei unzureichend gefilterten bzw. Swingler erkannte, dass die Daten zuerst gesäubert werden müssen, um ein zufriedenstellendes Ergebnis zu erziehen [82].

Die Säuberung der Daten ist zwar mit einem relativ hohen Aufwand verbunden, hat aber einen entscheidenen Einfluss auf die Güte der Ergebnisse [83]. Eine gute Datenqualität bzw. Schulmeister schrieb, dass die auf Tagesdaten basierenden technischen Handelssysteme seit den er Jahren eine andauernde abnehmbare Profitabilität erwiesen, die ab den frühen er Jahren unprofitable wurde.

Diese Untersuchung wies keine Abnahme der Profitabilität auf. Er wählte ein Intervall von 15 Minuten aus, da nach seiner Ansicht hierdurch sowohl eine umfangreiche Datenbasis als auch eine hohe Aktualität der Kurse berücksichtigt sind.

Die Untersuchung dauerte Handelstage und er hatte nachher eine Datenbasis von Neben dem Handelsvolumen lagen ihm die jeweiligen Eröffnungs-, Höchst-, Tiefst- und Schlusskurse vor. Die gewonnenen Rohdaten wurden in drei Stufen für eine Merkmalserstellung vorbereitet.

Fehlende Datenpunkte wären durch Interpolationsmöglichkeiten behandelt worden [87]. In der Dritten und letzten Stufe wurde die Vollständigkeit der Daten sichergestellt. Wie auch bei den fehlerhaften Datenpunkten wären hier fehlende Periodeneinheiten durch Interpolation behandelt worden [88]. Vergleich zwischen Linienchart und Candlestickanalyse. Um Kursverläufe und Kursänderungen schnell auf einem Blick erkennen zu können, werden diese meistens grafisch dargestellt.

Während Menschen diese Art von Darstellung leicht auswerten können, ist dies für Computer nicht sehr ideal. Für einen Rechner müssen die Daten numerisch bzw. Neben den Kursangaben, gehören auch Durchschnittswerte und Merkmale die eine relative Lage beschreiben zu den benötigten Daten.

Mit einem Candlestickmuster können Kursverläufe für den Computer mathematisch beschrieben werden. Der Höchstkurs oben und der Tiefstkurs unten. Der Schlusskurs wird direkt unter dem Höchstkurs und der Eröffnungskurs über dem Tiefstkurs angegeben. Fallende Kurse werden mit einem schwarzen Kerzenkörper beschrieben. Die folgende Abbildung stellt den Aufbau eines Candlesticks grafisch dar [91]. Im oberen Bereich der Abbildung wird ein Linienchart einer Aktie dargestellt.

Der untere Bereich zeigt dieses Linienchart in Candlestick-Notation. Die technischen Indikatoren sollen helfen einen Trend möglichst früh erkennen zu können.

Die verschiedenen technischen Indikatoren sollen als Ergebnis einen mathematischen Wert liefern, der aus den Kurs — und Handelsdaten ermittelt wurde.

Für eine Vorhersage können verschiedene Oszillatoren verwendet werden. Ein Oszillator hilft dem Trader kurzfristige Extremsituationen zu erkennen und zu bewerten. Weiterhin können mit einem Oszillator Divergenzen angezeigt werden, das sich ein Trend seiner Vollendung nähert. Der Zeitpunkt in dem der Oszillator als Hilfsmittel verwendet wird, ist hier von entscheidender Bedeutung.

Eine Oszillator-Analyse ist bei beginn bedeutender Kursbewegung nicht sehr hilfreich. Erst gegen Ende wird diese hilfreich [92]. Das Momentum zeigt die Geschwindigkeit von Kursbewegungen Grafisch an. Es werden fortlaufend Kursdifferenzen von einem Aktienkurs für ein festes Zeitintervall berechnet. Um die Differenz zu ermitteln wird der Schlusskurs von dem letzen Intervall vom aktuellen subtrahiert.

Für die folgenden Beispiele wird ein Zeitintervall von 10 Tagen angenommen. Die Formel lautet hierzu:. Der Wert wird also oberhalb der Nulllinie eingetragen. Ist der Wert kleiner als der vor 10 Tagen, dass sind die Kurse gefallen. Der Wert wird in diesem Fall unterhalb der Nulllinie eingetragen. Ist der Wert über der Nulllinie und steigt, dann ist eine Beschleunigung des Aufwärtstrends zu verzeichnen.

Ist der Wert zwar über der Nulllinie aber auch ein Trend Richtung dieser zu verzeichnen, dann ist der Aufwärtstrend noch intakt, allerdings nur noch mit abnehmbarer Steigung. Der Verlangsamung des Abwärtstrends wird deutlich, sobald die Linie wieder anfängt zu steigen. In der folgenden Abbildung wird ein Momentum mit einem Intervall von 10 Tagen gezeigt. Ein Vorteil von RSI ist es, dass dieser für eine Glättung von Verzerrungen und eine n konstanten Bandbreitenwert zwischen 0 und liefert.

Weiterhin können mit dem Relativen stärke Index zwei Wertpapiere oder Branchen miteinander verglichen Werten. Es wird mit den Wertpapieren oder Branchen so gesehenen ein objektiver Benchmark durchgeführt. Die Formel hierzu lautet:. Ein Wert über 70 wird als überkauft angesehen, ein Wert unter 30 wird einer überverkauften Marktsituation angesehen.

Der Aroon Oscillator wurde im Jahr definiert und wird dazu verwendet, um auf erste Anzeichen einer Trendwende reagieren zu können. Aufgrund dieser Annahme wird die Anzahl der Perioden zwischen beiden letzten Hoch- und Tiefpunkten festgehalten, um anhand dessen, eine Vorhersage einer möglichen Trendwende erstellen zu können. Mit der folgenden Formel kann der Aroon Oscillator bestimmt werden:. Die Entwicklung von Währungspaaren gehört beispielsweise zu diesen Metadaten.

Neben Währungsdifferenzen haben auch Rohstoffpreise wie z. Ölpreise Einfluss auf die Preis- und Umsatzentwicklung auf Unternehmen. Vor allem produzierende Unternehmen sind hiervon betroffen. Die Rohstoffpreise nehmen Einfluss auf die Produktionskosten und diese müssen entweder durch einen geringeren Gewinn oder eine Preisanpassung dem Kunden gegenüber angepasst werden.

Auch der Goldpreis kann auf den Wert einer Aktie Einfluss nehmen, selbst wenn das Unternehmen kein Gold verarbeitet oder damit handelt. Anhand des Goldpreises können Inflationserwartungen oder das Vertauen der Anleger abgeleitet werden.

Durch die Skalierung können die ermittelten Werte in ein einheitliches Intervall überführt werden. Weiterhin können mit der Univariate Skalierung einzelne Ausprägungen mit der Gesamteinheit verglichen werden.

Um das Ergebnis zu erhalten, müssen diese in Relation gesetzt werden. Dabei ist Ausprägung bzw. Die primäre Aufgabe der Merkmalsselektion ist es ein gewisses Gleichgewicht zwischen dem Bestand inkrementeller Merkmale und einer Steigerung der Effizienz beim Verarbeiten der Trainingsdaten durch das Entfernen redundanter Merkmale herzustellen.

Aufgrund der hohen Zufallswahrscheinlichkeit sowie der nicht linearen Beschaffenheit der finanzmarktspezifischen Daten gestaltet es sich überaus schwierig eine effiziente Weise der Merkmalsselektion durchzuführen. Innerhalb des Feldversuchs nach Thom wurden zum einen die Leistung von korrelations- und regressionsbasierter Filtermethoden sowie wrapperbasierte Selektionsmethoden geprüft. Bei einem Wrapper handelt es sich um ein Programm zur inhaltlichen Extraktion von Informationen.

Wrapper werden beispielsweise dazu verwendet, um relevante Informationen wie Preis oder Geschwindigkeit eines Notebooks aus Angebotsseiten zu extrahieren.

Bei einem Lernproblem handelt es sich um eine Regression, wenn es sich bei y um eine Zahl wie z. In diesem Fall ist y das positive Ergebnis einer Hypothese im Bezug auf die Vorhersage neuer implementierter Beispieldaten.

Realistisch betrachtet sucht man bei einem Regressionsproblem nur nach einem Erwartungs- bzw. Durchschnittswert, da die Wahrscheinlichkeit, den exakten Wert für y zu finden sich im Bereich 0 bewegt. Innerhalb der korrelations- und regressionsbasierten Filtermethoden nach Sperman oder Pearson wurde folgendes festgestellt: Im Gegensatz zu den regressionsbasierten Filtermethoden konnten die wrapperbasierten Selektionsmethoden wie z. Das Ergebnis der Klassifikation konnte jedoch mit diesen zusätzlichen Merkmalen nicht verbessert werden, sondern lediglich innerhalb eines konstanten Bereichs gehalten werden.

Das Verhältnis der erhöhten Rechenzeit steht somit in keinem positiven Zusammenhang mit der Trainings- und Klassifikationszeit. Aufgrund dieser Tatsachen ist in den nächsten Analyseprozessen auf die Verwendung von Filtern und Wrappern verzichtet worden []. Die Grundannahme bei der Klassifizierung von Objekten ist die Unterscheidung der studierten Objekte in steigende und fallende Kurse.

Desweiteren gilt die Grundannahme das steigende und fallende Kurse in der gleichen Häufigkeit existieren. Diese Annahmen sind dahingehend riskant, das hierdurch die Möglichkeit existiert, das tatsächliche Kursbewegungen nicht berücksichtigt werden. Alle Kursrückgänge werden der Klasse Null zugewiesen, während alle ansteigenden Kursbewegungen der Klasse Eins angehören. Diese Zuordnung behält Gültigkeit, unabhängig von der Höhe der Kursänderung.

Um diese Minimalveränderungen abzufangen, wird eine dritte Klasse verwendet. Aufgrund der Einführung einer dritten Klasse minimiert sich die Anzahl der zugeordneten Objekte und erhöht die Komplexität des Klassifikationsverfahrens. Es ist irrelevant, ob besagte minimale Kursabweichung positiv oder negativ definiert sind. Diese Abgrenzung wird als bewertungsfreie Zone definiert []. Nach Implementierung dieses Verfahrens kann festgestellt werden, dass dadurch nicht die Klassifikationsqualität angehoben wird.

Die Qualität der Klassifikation wird erhöht, sobald der Klassifikationszeitpunkt auf den Periodenhöchstkurs einer Betrachtungsperiode definiert wird. Begründet wird dies durch den Umstand, dass der Periodenhöchstkurs ein Zeitraum mit tatsächlicher Aufwärtsbewegung ist. Der Periodenhöchstkurs ist mandatorisch sowohl zeitlich als auch Wertetechnisch zu definieren. Hierfür wird auch die Periodendauer definiert. Es werden in der Praxis Minuten-Perioden studiert.

Eine fehlerhafte Klassifizierung in Klasse Null, würde keine Handlung initiieren, entgegen einer fehlerhaften Klassifizierung in Klasse Eins. Daraus ergibt sich, das Primär die Anzahl der korrekten Klassifizierungen der klasse Eins im relativen Vergleich zu den inkorrekten Klassifizierungen der klasse Eins zu maximieren sind. Es ist also nachrangig die Gesamtheit der Fehlklassifizierung zu minimieren. Bei der Unterteilung in die Klassen Null und Eins, werden beide Prioritär identisch behandelt, was erfordert, das eine neue Priorisierung erfolgt.

Die Priorisierung wird durch die Anpassung der Grenzwerte erreicht. Vice versa maximiert sich die Anzahl der Objekte in Klasse Null. Mandatorisch werden Objekte die Tatsächlich eine positive Kursänderung beschreiben, der Klasse Null zugeordnet, da die Kursänderung trotz positiver Tendenz zu niedrig ist. In der Gesamtheit wird die Aussagekraft der Klasse Eins ungeachtet dessen erhöht [].

Abbildung der Anhebung der Klassifizierungsgrenze zur Klasse Eins. Ziel der Klassifikation ist es, nach wiederkehrenden Merkmalmustern zu suchen, um auf neue Situation besser reagieren zu können. Es wird davon ausgegangen, dass es eine Menge von Objekten gibt, die jeweils einer Klasse zugeordnet werden können.

Bei der Klassifikation wird versucht einen Klassifikator zu erstellen, der neue bzw. Bezogen auf eine Aktienkursprognose wird versucht durch die Verwendung von Merkmalmustern den Kursverlauf besser zu charakterisieren. Für Test und Validierungsprozesse wurden weitere Objekte vorbehalten. Dabei wurden die Zeitlich ältesten Daten für für das Training und die jüngsten Daten für die Validierung der Klassifikation verwendet. Um die höchstmögliche Stabilität der Klassifikation durch neuronale zu gewährleisten, wird ein Rastersuchverfahren durchgeführt.

Der erste Teil laut Thom ca. Um unter Verwendung des Tuningsets die jeweilige Klassifikationsgüte der trainierten neuronalen Netze zu überprüfen, wurden diese in acht weitere kleinere Datensätze zergliedert. Um die Zuverlässigkeit und Beständigkeit der neuronalen Netze zu bewerten, werden sowohl der erwartete Ergebniswert, als auch die Streuung des Erwartungswertes über die acht Teile des Tuningsets zum Vergleich herangezogen.

Thom verwendet für die Erstellung eines Rankings die Fitnessfunktion. Aus diesem Grund setzte er eine Kombination von Klassifikatoren ein, die laut Studien bei finanzmarktspezifischen Problemen des Machine Learnings gute Ergebnisse erzielen. Durch eine Validierung des Klassifikationsalgorithmus auf die ungesehenen Daten, kann eine Erkenntnis über dessen Generalisierungsfähigkeit gewonnen werden. Weiterhin ist die Wahl der Methodik für die Datenauswertung sehr wichtig.

Neuronale Netze bieten den Vorteil, nonlineare Zusammenhänge gut erkennen zu können. Allerdings besteht bei neuronalen Netzen eine höhere Gefahr des Overfitting bzw. Nur der Parameter zur Fehlergewichtungskonstante und teilweise der Bandbreitenfaktor ist laut Thom zu optimieren.

Im Folgenden wird auf die Ergebnisse, die durch das Machine Learning im Bezug auf Kapitalmärkten gewonnen wurden, weiter eingegangen. In diesem Kapitel werden die Resultate von Dr. Thom verwendete für seine Analyse des Aktienmarktes jeweils fünf verschiedene Klassifikatoren für die selbe Anzahl an Merkmalkategorien, die zu insgesamt 31 Instrumenten trainiert wurden.

Seine Gesamtanzahl an Klassifikatoren betrug demnach Dazu versuchte Thom die Wahrscheinlichkeit einer richtigen Klassifizierung eines Objektes in Klasse Eins zu maximieren.

Eine geringe Streuung steht dabei im Zeitablauf für ein stabiles Ergebnis. Durch die Klassifikationsfehler wird der Anteil der insgesamt fehlerhaft zugeordneten Objekte wiedergegeben. Die folgende Abbildung zeigt einen Überblick über die durch Thom verwenden Klassifikatoren und deren Ergebnisse. Weiterhin überprüfte Thom, ob eine vorhersage kurzfristiger Aktienkursrenditen mit den vorgestellten Methoden auch wirtschaftlich sind. Neben dem Wertverlust einer Aktie, müssen auch die Kosten für das Handelssystem und die eigentliche Berechnung berücksichtigt werden.

Es wird also überprüft, ob eine Überrendite bzgl. Um dies zu ermitteln, legte Thom folgende Randbedingungen fest: Wie in Kapitel 3. Sobald diese Schwelle überschritten wurde, wird die bestehende Position geschlossen und ein Verlust akzeptiert. Bei einem neutralen Ergebnis wird die Position am Ende der Periode geschlossen.

In dieser Arbeit wird nicht weiter auf die einzelnen 31 Instrumente eingegangen, sondern das kumulierte Ergebnis betrachtet. Hierdurch fiele der tatsächliche Gewinn in der praktischen Umsetzung wesentlich geringer aus. Dennoch unterstützt die theoretische Profitabilität dieses Handelssystems die These, dass verhersagbare Komponenten der Aktienkursentwicklung existieren, und dass diese durch maschinelles Lernen aufgedeckt werden können.

Im Verlauf dieser Arbeit konnte durch die kritische Untersuchung des Einsatzes verschiedener Lernverfahren bei der Analyse von finanzmarktspezifischen Daten aufgezeigt werden, dass sich maschinelle Lernverfahren nur bedingt für die erfolgreiche Prognose von Aktienkursen eignen. Die Betrachtung der Ergebnisse verdeutlicht, dass es Teilbereiche des Aktienmarktes gibt, die mit Hilfe des Machine Learning analysiert und prognostiziert werden können.

Dennoch war und ist es nicht möglich, mit den vorhandenen Kombinationen aus verschiedenen Klassifikatoren und Merkmalen eine vollständige Prognose eines Aktienkurses vorhersagen zu können. Zudem konnte festgestellt werden, dass bei der Analyse von Kapitalmärkten, insbesondere dem Aktienmarkt, eine Vielzahl von Faktoren berücksichtigt werden müssen, um eine erfolgreiche Prognostizierung von Aktienkursen ermöglichen zu können.

Im Hinblick auf das exponentiell steigende Datenaufkommen ist es ein elementarer Faktor die Qualität der verwendeten Daten zu prüfen, da lediglich aufbereitete und gesäuberte Datensätze für ein Klassifikationsverfahren positive Ergebnisse liefern und somit den Erfolgsfaktor im Hinblick auf die Prognose stark beeinflussen. Bezüglich der Prägnanz der zuvor genannten Datenprämisse ist es ausschlaggebend, dass bekannte und absehbare exogene Faktoren berücksichtigt werden und in die Analyse der Datenbasis mit eingebunden werden.

In dieser Arbeit wurde zudem nachgewiesen, dass direkte sowie indirekte Merkmale eine elementare Rolle im Bezug auf die Aussagekraft für das Betrachtungsobjekt spielen. Das Ziel war es, eine hohe Generalisierung der Merkmale zu erreichen, um im Nachhinein diese für weitere Berechnungen sowie Vergleiche nutzen zu können.

Bei den Analysetechniken wurden zwei verschiedene Herangehensweise untersucht. Hierbei wurde zwischen der Fundamentalanalyse und der technischen Analyse differenziert. Durch den Vergleich zwischen inneren und tatsächlichen Wert der Aktie, ergibt sich eine weitere Möglichkeit, um die Kauf- oder Verkaufsentscheidung bewerten zu können. Prinzipiell dient die Fundamentalanalyse der Bewertung eines Unternehmens.

Neben der Fundamentalanalyse wurden ebenfalls die Hintergründe bzw. Funktionen der technischen Analyse untersucht. Die Technische Analyse versucht unter anderem die Kurse in unterschiedliche Trends einzuordnen, um anhand dessen, einen Aufwärts-, Abwärts oder Seitwärtstrend herausfiltern zu können.

Für die Durchführung dieser Analysetechnik wurden verschiedene Technische Indikatoren auf dessen Vor- und Nachteile bzw. Neben der verwendeten Analysetechnik sowie der Säuberung der Daten ist es ein bedeutender Faktor, gleicherweise die Quellen und Auswertmethodik zu priorisieren.

Während der Entwicklung dieser Arbeit wurden mehrere Methoden der künstlichen Intelligenz dargestellt und miteinander verglichen. Exemplarisch wurde dabei auf die Verwendung neuronaler Netze, sowie deren Gewichtungseigenschaften und Methoden eingegangen. Um es den verschiedenen Methoden der KI zu ermöglichen, Daten maschinell auswerten zu können, müssen diese neben einer Aufbereitung auch in ein maschinenlesbares Format übertragen werden. Mit einem Candlestickmuster können Kursverläufe, also Höchst-, Tiefst-, Eröffnungs- sowie Schlusskurs für die zu lernende Maschine mathematisch dargestellt werden.

Nach einer erfolgreichen Skalierung sowie Selektion der vorhandenen Merkmale wurde die Klassifikation der Objekte durchgeführt. Ziel dieser war es, nach wiederkehrenden Merkmalsmustern zu suchen, um auf neue Situationen während der Trainingsphasen besser reagieren zu können.

Insgesamt wurden während des kompletten Feldversuchs Merkmale erzeugt und in die Analyse mit einbezogen. Dies ist zum einen bedingt durch die fortschreitende Entwicklung in Technik und Wissenschaft, welche verschiedene Abläufe zunehmend komplexer und abstrakter werden lassen.

Weltweit renommierte Unternehmen investieren enorme Kapazitäten in den Bereich des Machine Learning, um Prozesse mit steigender Komplexität durch Maschinen automatisiert abbilden zu können. Durch diese Kombination aus, steigenden Ansprüchen sowie Kapazitäten, ergibt sich das folgende Szenario im Hinblick auf zukünftige Analysen: Ermöglicht das Machine Learning zukünftig eine vollständige Transparenz des Finanzmarktes?

boerse.de im Wandel der Zeit

Die Euro Mindesteinzahlung wirken sich ggf.

Closed On:

Wie auch bei den fehlerhaften Datenpunkten wären hier fehlende Periodeneinheiten durch Interpolation behandelt worden [88].

Copyright © 2015 virfac.info

Powered By http://virfac.info/