Optimierung Of Trading Systeme Und Portfolios


Beispiele für Optimierungsprobleme Können Sie mir Beispiele ähnlich wie mein Problem Download 119 Beispielmodelle Jetzt Optimierung ist ein Werkzeug mit Anwendungen in vielen Branchen und Funktionsbereichen. Um mehr zu erfahren, melden Sie sich an, um ausgewählte Beispiele online nach Funktionsbereich oder Branche zu sehen. Hier finden Sie eine umfangreiche Liste von Beispielmodellen, auf die Sie jederzeit Zugriff haben können. Sie können alle diese Modelle mit dem einfachen Excel Solver ausführen. Wenn Sie eine kostenlose Testversion unserer erweiterten Solver für den Desktop-Microsoft Excel herunterladen und installieren, finden Sie, dass mehr als neunzig (90) kleine, aber voll funktionsfähige Beispielmodelle für Ihren Einsatz verfügbar sind - für konventionelle Optimierung, Simulation und Risikoanalyse, Entscheidungsanalyse (mit Entscheidungsbäumen), Simulationsoptimierung, stochastische Optimierung und robuste Optimierung. Sie können dies jederzeit nach der Anmeldung tun. Beispiele nach Funktionsbereich Corporate Finance Working Capital Management. Investieren Sie in 1-Monats-, 3-Monats - und 6-Monats-CDs, um das Interesse zu maximieren. Wählen Sie eine Kombination von Kapitalprojekten, um die gesamte NPV (Net Present Value) Bestandsführung zu maximieren. Vergleichen Sie die Lagerbestände und die Neuordnung mit dem EOQ (Economic Order Quantity) Modell Cash Management. Bestimmen Sie, wo Sie Schließfächer lokalisieren, um den Schwimmer zu minimieren oder Zinsen, die zu fehlenden Versendungsverzögerungen verloren gehen. Kapazitätsplanung. Bestimmen Sie, welche Anlagen geöffnet oder geschlossen werden sollen Investments Portfolio Optimization - Markowitz Model. Zuordnung von Mitteln zu Aktien, um das Risiko für eine Zielrendite zu minimieren - mit bekannten oder berechneten Varianzen und Kovarianzen Aktienportfolio Management. Verwendet ein VBA-Makro zur Optimierung mehrerer Szenarien für das minimale Risiko bei unterschiedlichen Zielraten der Rendite und zeichnet dann ein Diagramm der effizienten Grenze Portfolio Optimization - Sharpe Model (CAPM). Verwendungen Excels Regressionsfunktionen zur Berechnung von Alphas und Betas für Aktien in Bezug auf einen Marktindex, dann verwendet diese, um ein effizientes Portfolio Bond Portfolio Management zu finden. Zuordnen von Mitteln an Anleihen, um die Rendite zu maximieren, während sichergestellt wird, dass die Portfoliendauer dem Anlagehorizont für die Fälligkeit entspricht - mit bekannten oder berechneten Laufzeiten Bond Portfolio Exact Matching. Zuordnung von Mitteln zu Anleihen, um die Portfolio-Rendite zu maximieren und gleichzeitig sicherzustellen, dass periodische Verbindlichkeiten erfüllt sind - mit oder ohne Wiederanlage Produktionsprodukt-Mix. Bestimmen Sie, wie viele Produkte jeder Art von bestimmten Teilen zu montieren, um Gewinne zu maximieren, während nicht mehr vorhandene Teile Inventar Maschine Zuordnung. Verteilen Sie die Produktion eines Produkts auf verschiedene Maschinen, mit unterschiedlichen Kapazitäten, Startkosten und Betriebskosten, um das Produktionsziel zu minimalen Kosten zu erfüllen. Bestimmen Sie, welche Rohstoffe aus verschiedenen Quellen zu mischen, um einen Stoff mit bestimmten gewünschten Qualitäten zu minimalen Kosten zu produzieren. Prozessselektion - Entscheiden Sie, welche von mehreren Prozessen (mit unterschiedlichen Geschwindigkeiten, Kosten usw.) verwendet werden sollten, um eine gewünschte Produktmenge in einem Gewisse zeit, bei minimalem kostenschnitt Bestimmen Sie, wie man größere Stücke von Holz, Stahl, etc. in kleinere Stücke von gewünschten Größen schneidet, die jeweils in bestimmten Mengen benötigt werden, um die Abfälle zu vermeiden. Verteilung Transportmodell. Bestimmen Sie, wie viele Produkte von jeder Fabrik zu jedem Lager oder von jeder Fabrik zu jedem Lager und direkt zu jedem Endkunden zu versenden, um Verschiffenkosten zu minimieren, während Sie Lager-Anforderungen und nicht mehr als Werk Lieferungen Mehrstufige, Multi-Commodity-Transport-Modell. Bestimmen Sie, wie viele Produkte von mehreren verschiedenen Arten von jeder Fabrik zu jedem Lager und jedem Kunden zu versenden, um die Gesamtverschiffenkosten zu minimieren, während Sie Anforderungen erfüllen und nicht über Kapazitäten und Lieferungen Partial Loading - Entscheiden Sie, welche Größen oder Arten von Produkten in ein Fahrzeug zu laden, Angesichts seiner Größenbeschränkungen, um die Nachfrage am besten zu befriedigen oder die verschwendete Raumfazilität zu minimieren. Bestimmen Sie, welche (wenn überhaupt) Anlagen zu schließen, um die Gesamtkosten zu minimieren, einschließlich der festen Betriebskosten und der Versandkosten zwischen den Anlagen Produktion Transport Modell. Bestimmen Sie, wie viele Produkte in jeder Fabrik produziert werden, und versenden Sie an Lager und Kunden, um die Gesamtkosten zu minimieren, während Sie die Anforderungen erfüllen, Lagerkapazitäten und Fabrikzubehör Kaufvertrag Auszeichnungen - Vergabe von Aufträgen an Lieferanten, die bestimmte Preise für die Bereitstellung von Produkten an Einrichtungen in mehreren Staaten bieten - erlauben Sie Gebote, die eine Mindestgröße für jeden Staat Inventory StockingReordering. Vergleichen Sie Lagerbestände und Umordnungsrichtlinien mit dem EOQ (Economic Order Quantity) - Modell Media Planning - Entscheiden Sie, wie viel Werbung in verschiedenen Medien zu kaufen, um die Gesamtkosten zu minimieren und gleichzeitig ein Ziel Level der Reichweite oder Frequenz Einkauf Transport Model zu erreichen. Bestimmen Sie, wie viel von verschiedenen Lieferanten zu bestimmten Preisen zu kaufen, um von ihren Standorten zu verschiedenen Anlagen versendet werden, um die Gesamtkosten einschließlich Kauf-und Versandkosten Kosten Human Resources Crew Scheduling zu minimieren. Zuordnen von Besatzungen zu verschiedenen Flugliniensegmenten, um die Gesamtkosten zu minimieren und gleichzeitig sicherzustellen, dass eine Besatzungsrotation beginnt und endet in der gleichen Stadt Bürozuweisung. Zuordnen von Mitarbeitern zu den verfügbaren Büros, um die Zufriedenheit der Mitarbeiterpräferenzen zu maximieren. Mitarbeiterterminierung. Planen Sie Parkmitarbeiter für wöchentliche Verschiebungen (fünf Arbeitstage plus zwei aufeinanderfolgende Tage frei), um die Lohnkosten zu minimieren, während Sie die unterschiedliche Nachfrage für jeden Tag der Woche erfüllen, wahlweise unter Berücksichtigung der Mitarbeiter-Seniorität und der Präferenzen Workforce Composition. Entscheiden Sie, wie viele Mitarbeiter um Umschulung, Miete und Feuer, um sich ändernde Arbeitskräfte Komposition Anforderungen bei gleichzeitiger Minimierung der Kosten oder Mitarbeiter Umsatz Workforce Movement. Entscheiden Sie, wie viele Truppen aus mehreren Lagern zu mehreren anderen Basen zu bewegen, um Bewegungszeit oder Gesamtkosten zu minimieren Beispiele von Industry Airlines und Trucking Crew Scheduling. Angesichts eines Flugplans, Flugzeugzuweisungen und Einschränkungen für Dienstzeiten, ordnen Besatzungen am effektivsten für Flüge Flottenrouting und Zuordnung. Bestimmen Sie, welche Flugzeuge auf jeder Strecke fliegen, und die Reihenfolge der Segmente, die von jedem Flugzeug Revenue Management geflogen werden. Für verschiedene Klassen von Tickets, bestimmen, wie viele Sitze zu verkaufen oder zurückhalten als Flugdatum Ansätze Öl und Gas Benzin Blending. Von Kohlenwasserstoffen mit spezifischen Oktanzahlen, Dampfdruck, Volatilität und Kosten, bestimmen, wie viel von jedem sollte zusammengemischt werden, um regelmäßige, Midgrade und Premium Benzin Gas Vertrag Kauf zu produzieren. Mit prognostizierten, aber unsicheren Gasnachfrage, bestimmen, welche Verträge zu kaufen, und wie viel Gas zu verschiedenen Zeiten zu speichern Pipeline Capacity Auktion. Bestimmen Sie, welche Gebote zu unterschiedlichen Preisen vergeben werden sollen, um die Umsatzerlöse zu maximieren, während die täglichen Pipeline-Kapazitäten nicht überschritten werden. Holz-, Papier - und Stahlschneidprobleme. Angesichts der großen Holz-Papier-Blätter oder Stahl-Platten-Bars, und die Nachfrage nach Einheiten von kleineren Längeswidths, bestimmen die Schneidemuster von großen in kleine Stücke, die Nachfrage bei der Minimierung der Abfälle Landwirtschaft Kulturpflanzen Planung: Angesichts der prognostizierten Ernte Preise und wachsende Bedingungen bestimmen, wie viel von jedem Ernte zu pflanzen Feed Blending. Angesichts der ernährungsphysiologischen Anforderungen für Futtertiere und der Preis der verfügbaren Futtermittel, finden Sie die Mischung aus Futtermittel-Zutaten, die die Gesamtkosten minimieren wird Elektrischer Stromerzeuger Engagement. Angesichts der prognostizierten Nachfrage nach Perioden - und Betriebskosten für jeden Generator bestimmen Sie, welche Generatoren in jedem Zeitintervall Electricity Trading laufen sollen. Maximieren Sie den Wert der Stromverkäufe in einer laufenden Versteigerungsumgebung Finanzdienstleistungen Effiziente Portfolios. Angesichts der Prognosen von Aktien-, Anleihen - oder Asset-Class-Renditen, Abweichungen und Kovarianzen werden Mittel für Investitionen bereitgestellt, um das Portfolio-Risiko für eine gegebene Rendite zu minimieren. Index Fund Management. Lösen Sie ein Portfolio-Optimierungsproblem, das den Tracking-Error minimiert, damit ein Fonds einen Index aus Tausenden von Wertpapieren AssetLiability Management widerspiegelt. Zuordnen von Mitteln für verschiedene Investitionen, um die Portfolio-Rendite zu maximieren und gleichzeitig sicherzustellen, dass die periodischen Verbindlichkeiten vollständig finanziert werden. Ihr Download umfasst: 119 Beispielmodelle Zugriff auf Software-Support über Live Chat Telefon amp E-Mail-Support Ein neuer Benutzer Kurzanleitung Frontline Solver Referenzhandbuch Frontline Solvers User Manuelle analytische Solver-Plattform 15-Tage-Lizenz 15-Tage-Testversion von AnalyticSolver Anzeigen und Herunterladen von Beispieldateien (Alle Felder sind erforderlich) Trading Floor Architecture Trading Floor Architecture Executive Überblick Erhöhter Wettbewerb, höheres Marktdatenvolumen und neue regulatorische Anforderungen sind einige der treibenden Kräfte hinter sich Industrieänderungen Firmen versuchen, ihre Wettbewerbsfähigkeit zu halten, indem sie ständig ihre Handelsstrategien ändern und die Geschwindigkeit des Handels erhöhen. Eine tragfähige Architektur muss die neuesten Technologien aus Netzwerk - und Anwendungsdomänen beinhalten. Es muss modular sein, um einen überschaubaren Pfad zu schaffen, um jede Komponente mit minimaler Störung des Gesamtsystems zu entwickeln. Daher basiert die von diesem Papier vorgeschlagene Architektur auf einem Dienstleistungsrahmen. Wir untersuchen Dienstleistungen wie Ultra-Low Latency Messaging, Latenzüberwachung, Multicast-, Computing-, Speicher-, Daten - und Anwendungsvirtualisierung, Trading Resiliency, Trading Mobility und Thin Client. Die Lösung für die komplexen Anforderungen der Handelsplattform der nächsten Generation muss mit einer ganzheitlichen Denkweise aufgebaut werden, die die Grenzen der traditionellen Silos wie Business und Technologie oder Anwendungen und Vernetzung überquert. Ziel dieses Hauptziels ist es, Leitlinien für den Aufbau einer Handelsplattform mit extrem niedriger Latenz zu schaffen und gleichzeitig den Rohdurchsatz und die Nachrichtenrate für Marktdaten und FIX-Handelsaufträge zu optimieren. Um dies zu erreichen, schlagen wir die folgenden Latenz-Reduktionstechnologien vor: High-Speed-InterconneconInfiniBand oder 10 Gbit / s Konnektivität für den Trading-Cluster High-Speed-Messaging-Bus Anwendungsbeschleunigung über RDMA ohne Applikations-Re-Code Echtzeit-Latenzüberwachung und Re-Richtung von Trading Traffic auf den Pfad mit minimaler Latenz Branchentrends und Herausforderungen Die nächsten Architekturarchitekturen der nächsten Generation müssen auf erhöhte Anforderungen an Geschwindigkeit, Volumen und Effizienz reagieren. Zum Beispiel wird erwartet, dass das Volumen der Optionen Marktdaten nach der Einführung von Optionen Penny Handel im Jahr 2007 verdoppeln wird. Es gibt auch regulatorische Anforderungen für die beste Ausführung, die Handling Preis-Updates mit Raten, die 1M msgsec Ansatz erfordern. Für den Austausch. Sie verlangen auch die Einsicht in die Frische der Daten und den Nachweis, dass der Kunde die bestmögliche Ausführung erhalten hat. Kurzfristig sind die Handels - und Innovationsgeschwindigkeiten wichtige Unterscheidungsmerkmale. Eine zunehmende Anzahl von Trades wird durch algorithmische Trading-Anwendungen behandelt, die so nah wie möglich an den Trade Execution Veranstaltungsort platziert werden. Eine Herausforderung mit diesen quotblack-boxquot Trading-Engines ist, dass sie die Volumenerhöhung durch die Ausgabe von Aufträgen nur, um sie zu stornieren und re-submit sie. Die Ursache für dieses Verhalten ist der Mangel an Sichtbarkeit, in welchen Veranstaltungsort die beste Ausführung bietet. Der menschliche Trader ist jetzt ein quotfinancial Ingenieur, ein quotquantquot (quantitative Analytiker) mit Programmierkenntnissen, die Handelsmodelle on-the-fly anpassen können. Unternehmen entwickeln neue Finanzinstrumente wie Wetterderivate oder Cross-Asset-Class-Trades und müssen die neuen Applikationen schnell und skalierbar einsetzen. Auf lange Sicht sollte die wettbewerbsorientierte Differenzierung aus der Analyse kommen, nicht nur Wissen. Die Star-Trader von morgen übernehmen das Risiko, erwerben wahre Klienteneinsicht und konsequent schlagen den Markt (Quelle IBM: www-935.ibmservicesusimcpdfge510-6270-trader. pdf). Die wirtschaftliche Resilienz ist seit dem 11. September 2001 ein wichtiges Anliegen der Handelsfirmen. Die Lösungen in diesem Bereich reichen von redundanten Rechenzentren, die sich in verschiedenen Geografien befinden und mit mehreren Handelsplätzen verbunden sind, um virtuelle Trader-Lösungen anzubieten, die den Krafthändlern die meisten Funktionalitäten eines Trading-Bodens bieten An einem abgelegenen standort Die Finanzdienstleistungsbranche ist eine der anspruchsvollsten IT-Anforderungen. Die Branche erlebt eine architektonische Verschiebung hin zu Services-Oriented Architecture (SOA), Web Services und Virtualisierung von IT-Ressourcen. SOA nutzt die Erhöhung der Netzwerkgeschwindigkeit, um eine dynamische Bindung und Virtualisierung von Softwarekomponenten zu ermöglichen. Dies ermöglicht die Schaffung neuer Anwendungen, ohne die Investition in bestehende Systeme und Infrastrukturen zu verlieren. Das Konzept hat das Potenzial, den Weg der Integration zu revolutionieren, was eine deutliche Reduzierung der Komplexität und Kosten einer solchen Integration ermöglicht (GigaspacesdownloadMerrilLynchGigaSpacesWP. pdf). Ein weiterer Trend ist die Konsolidierung von Servern in Rechenzentrums-Serverfarmen, während Trader-Tische nur KVM-Erweiterungen und ultradünne Clients (z. B. SunRay - und HP-Blade-Lösungen) haben. Hochgeschwindigkeits-Metro-Area-Netzwerke ermöglichen es, dass Marktdaten Multicast zwischen verschiedenen Standorten sind und die Virtualisierung des Trading-Bodens ermöglichen. High-Level-Architektur Abbildung 1 zeigt die hochrangige Architektur einer Handelsumgebung. Die Ticker-Anlage und die algorithmischen Handelsmotoren befinden sich im Hochleistungs-Handelscluster im Firmenrechenzentrum oder am Austausch. Die menschlichen Händler befinden sich im Bereich der Endbenutzeranwendungen. Funktionell gibt es zwei Anwendungskomponenten in der Unternehmenshandelsumgebung, Verlagen und Abonnenten. Der Messaging-Bus stellt den Kommunikationspfad zwischen Verlagen und Abonnenten zur Verfügung. Es gibt zwei Arten von Verkehrsspezifisch für ein Handelsumfeld: Market DataCarries Preisinformationen für Finanzinstrumente, Nachrichten und andere Wertschöpfungsinformationen wie Analytics. Es ist unidirektional und sehr latenzempfindlich, typischerweise über UDP Multicast geliefert. Es wird in updatessec gemessen. Und in Mbps. Die Marktdaten fließen von einem oder mehreren externen Futtermitteln, die von Marktdatenanbietern wie Börsen, Datenaggregatoren und ECNs stammen. Jeder Anbieter hat ein eigenes Marktdatenformat. Die Daten werden von Feed-Handlern, spezialisierten Anwendungen, die normalisieren und reinigen die Daten erhalten und dann senden sie an Datenverbraucher, wie z. B. Preis-Engines, algorithmische Trading-Anwendungen oder menschliche Händler. Sell-Side-Firmen senden auch die Marktdaten an ihre Kunden, Buy-Side-Firmen wie Investmentfonds, Hedgefonds und andere Vermögensverwalter. Einige Buy-Side-Firmen können sich entscheiden, direkte Feeds vom Austausch zu erhalten, wodurch die Latenz reduziert wird. Abbildung 1 Trading Architecture für ein Buy SideSell Side Firm Es gibt keinen Industriestandard für Marktdatenformate. Jeder Austausch hat sein eigenes Format. Finanzinvestoren wie Reuters und Bloomberg aggregieren verschiedene Quellen von Marktdaten, normalisieren sie und fügen Nachrichten oder Analysen hinzu. Beispiele für konsolidierte Feeds sind RDF (Reuters Data Feed), RWF (Reuters Wire Format) und Bloomberg Professional Services Data. Um niedrigere Latenz-Marktdaten zu liefern, haben beide Anbieter Echtzeit-Marktdaten-Feeds freigegeben, die weniger verarbeitet sind und weniger Analytik haben: Bloomberg B-PipeWith B-Pipe, Bloomberg entkoppelt ihren Marktdaten-Feed von ihrer Distributionsplattform, weil ein Bloomberg-Terminal Ist nicht erforderlich, um B-Pipe zu bekommen. Wombat und Reuters Feed Handler haben Unterstützung für B-Pipe angekündigt. Eine Firma kann beschließen, Feeds direkt von einer Börse zu erhalten, um die Latenz zu reduzieren. Die Übertragungsgeschwindigkeit kann zwischen 150 Millisekunden und 500 Millisekunden liegen. Diese Futter sind komplexer und teurer und die Firma muss ihre eigene Ticker-Anlage bauen und pflegen (FinancetechfeaturedshowArticle. jhtmlarticleID60404306). Trading OrdersDiese Art von Verkehr trägt die tatsächlichen Trades. Es ist bidirektional und sehr latenzempfindlich. Es wird in messagessec gemessen. Und Mbps. Die Aufträge stammen aus einer Kaufseite oder verkaufen Seitenfirma und werden an Handelsplätze wie eine Börse oder ECN zur Ausführung geschickt. Das häufigste Format für den Auftragstransport ist FIX (Financial Information eXchangefixprotocol. org). Die Anwendungen, die FIX-Nachrichten behandeln, heißen FIX-Engines und sie stellen sich mit Auftragsmanagementsystemen (OMS) zusammen. Eine Optimierung auf FIX heißt FAST (Fix Adapted for Streaming), die ein Komprimierungsschema verwendet, um die Nachrichtenlänge zu reduzieren und in der Tat die Latenz zu reduzieren. FAST zielt mehr auf die Bereitstellung von Marktdaten und hat das Potenzial, ein Standard zu werden. FAST kann auch als Komprimierungsschema für proprietäre Marktdatenformate verwendet werden. Um die Latenz zu reduzieren, können sich Unternehmen entscheiden, den Direktmarktzugang (DMA) zu etablieren. DMA ist der automatisierte Prozess der Weiterleitung eines Wertpapierauftrags direkt an einen Ausführungsort und damit die Intervention durch einen Drittanbieter (towergroupresearchcontentglossary. jsppage1ampglossaryId383). DMA erfordert eine direkte Verbindung zum Ausführungsort. Der Messaging-Bus ist Middleware-Software von Anbietern wie Tibco, 29West, Reuters RMDS oder eine Open-Source-Plattform wie AMQP. Der Messaging-Bus verwendet einen zuverlässigen Mechanismus, um Nachrichten zu liefern. Der Transport kann über TCPIP (TibcoEMS, 29West, RMDS und AMQP) oder UDPmulticast (TibcoRV, 29West und RMDS) erfolgen. Ein wichtiges Konzept in der Nachrichtenverteilung ist der quottopische Strom, der eine Untermenge von Marktdaten ist, die durch Kriterien wie Tickersymbol, Industrie oder einen bestimmten Korb von Finanzinstrumenten definiert sind. Abonnenten verbinden Themengruppen, die einem oder mehreren Unterthemen zugeordnet sind, um nur die relevanten Informationen zu erhalten. In der Vergangenheit erhielten alle Händler alle Marktdaten. Bei den laufenden Verkehrsmengen wäre das suboptimal. Das Netzwerk spielt eine wichtige Rolle im Handelsumfeld. Die Marktdaten werden in den Handelsteil getragen, wo sich die menschlichen Händler über ein Campus - oder Metro-Area-Hochgeschwindigkeitsnetz befinden. Hochverfügbarkeit und geringe Latenz sowie hoher Durchsatz sind die wichtigsten Kennzahlen. Die hochleistungsfähige Handelsumgebung hat die meisten Komponenten in der Data Center Serverfarm. Um die Latenz zu minimieren, müssen sich die algorithmischen Handelsmotoren in der Nähe der Futtermittel-Handler, FIX-Motoren und Auftragsmanagementsysteme befinden. Ein alternatives Bereitstellungsmodell hat die algorithmischen Handelssysteme, die sich an einer Börse oder einem Dienstanbieter befinden, mit einer schnellen Verbindung zu mehreren Börsen. Bereitstellungsmodelle Es gibt zwei Bereitstellungsmodelle für eine leistungsstarke Handelsplattform. Firmen können sich entscheiden, eine Mischung aus den beiden zu haben: Rechenzentrum des Handelsunternehmens (Abbildung 2) Dies ist das traditionelle Modell, in dem eine vollwertige Handelsplattform von der Firma entwickelt und gepflegt wird, mit Kommunikationsverbindungen zu allen Handelsplätzen. Latenz variiert mit der Geschwindigkeit der Links und die Anzahl der Hops zwischen der Firma und den Veranstaltungsorten. Abbildung 2 Traditionelles Deployment Model Co-Standort am Handelsplatz (Börsen, Finanzdienstleister (FSP)) (Abbildung 3) Das Handelsunternehmen setzt seine automatisierte Handelsplattform so nah wie möglich an die Ausführungsorte ein, um die Latenz zu minimieren. Abbildung 3 Hosted Deployment Model Services-orientierte Trading-Architektur Wir schlagen ein dienstleistungsorientiertes Framework für den Aufbau der Handelsarchitektur der nächsten Generation vor. Dieser Ansatz bietet einen konzeptionellen Rahmen und einen Implementierungspfad, der auf Modularisierung und Minimierung von Inter-Abhängigkeiten basiert. Dieses Framework bietet Unternehmen eine Methodik an: Auswertung ihres aktuellen Standes in Bezug auf Dienstleistungen Priorisierung von Dienstleistungen auf der Grundlage ihres Wertes für das Unternehmen Entwicklung der Handelsplattform in den gewünschten Zustand mit Hilfe eines modularen Ansatzes Die Hochleistungshandelsarchitektur beruht auf folgenden Dienstleistungen: Definiert durch das in Abbildung 4 dargestellte Dienstleistungsarchitektur-Framework. Abbildung 4 Service-Architektur-Framework für Hochleistungs-Trading Ultra-Low Latency Messaging Service Dieser Service wird von dem Messaging-Bus bereitgestellt, der ein Software-System ist, das das Problem der Verbindung von vielen zu - Viele Anwendungen. Das System besteht aus: Ein Satz von vordefinierten Meldungsschemata Ein Satz von gemeinsamen Befehlsnachrichten Eine gemeinsame Anwendungsinfrastruktur zum Senden der Nachrichten an Empfänger. Die gemeinsame Infrastruktur kann auf einem Message Broker oder einem Publishsubscribe-Modell basieren. Die Schlüsselanforderungen für den Nachrichtenbus der nächsten Generation sind (Quelle 29West): Niedrigste Latenzzeit (zB weniger als 100 Mikrosekunden) Stabilität unter schwerer Belastung (zB mehr als 1,4 Millionen Milliarden) Kontrolle und Flexibilität (Ratensteuerung und konfigurierbare Transporte) Sind Bemühungen in der Industrie, den Messaging-Bus zu standardisieren. Advanced Message Queuing Protocol (AMQP) ist ein Beispiel für einen offenen Standard, der von J. P. Morgan Chase unterstützt wird und von einer Gruppe von Anbietern wie Cisco, Envoy Technologies, Red Hat, TWIST Process Innovations, Iona, 29West und iMatix unterstützt wird. Zwei der Hauptziele sind es, einen einfacheren Weg zur Interoperabilität für Anwendungen zu schaffen, die auf verschiedenen Plattformen und Modularität geschrieben sind, so dass die Middleware leicht weiterentwickelt werden kann. In sehr allgemeiner Hinsicht ist ein AMQP-Server analog zu einem E-Mail-Server, wobei jeder Austausch als Nachrichtenübertragungsagent und jede Nachrichtenwarteschlange als Postfach fungiert. Die Bindungen definieren die Routingtabellen in jedem Transferagent. Verleger senden Nachrichten an einzelne Übertragungsagenten, die dann die Nachrichten in Postfächer vermitteln. Die Konsumenten nehmen Nachrichten aus Postfächern, die ein leistungsfähiges und flexibles Modell schaffen, das einfach ist (Quelle: amqp. orgtikiwikitiki-index. phppageOpenApproachWhyAMQP). Latency Monitoring Service Die wichtigsten Voraussetzungen für diesen Service sind: Sub-Millisekunden-Granularität von Messungen Near-Echtzeit-Sichtbarkeit ohne Hinzufügen von Latenz auf den Trading-Verkehr Fähigkeit, die Latenz der Applikationsverarbeitung von der Netzwerk-Transit-Latenz zu unterscheiden. Fähigkeit, hohe Nachrichtenraten zu verarbeiten Geben Sie eine programmatische Schnittstelle für Trading-Anwendungen, um Latenzdaten zu empfangen, so dass algorithmische Trading-Engines an sich ändernde Bedingungen angepasst werden können. Verknüpfen von Netzwerkereignissen mit Anwendungsereignissen für Fehlerbehebungszwecke Latenzzeit kann als das Zeitintervall definiert werden, wenn ein Handelsauftrag gesendet wird und wenn die gleiche Reihenfolge quittiert und gehandelt wird Von der empfangenden Partei Die Ansprache der Latenzfrage ist ein komplexes Problem, das einen ganzheitlichen Ansatz erfordert, der alle Latenzquellen identifiziert und unterschiedliche Technologien auf verschiedenen Schichten des Systems anwendet. Abbildung 5 zeigt die Vielfalt der Komponenten, die Latenz auf jeder Schicht des OSI-Stacks einführen können. Es gibt auch jede Latenzquelle mit einer möglichen Lösung und einer Überwachungslösung ab. Dieser geschichtete Ansatz kann Unternehmen eine strukturierte Art, die Latenzfrage anzugreifen, wobei jede Komponente als Dienstleistung gedacht und konsequent über die Firma behandelt werden kann. Die Aufrechterhaltung einer genauen Messung des dynamischen Zustands dieses Zeitintervalls über alternative Routen und Ziele kann bei taktischen Handelsentscheidungen von großer Unterstützung sein. Die Fähigkeit, den genauen Standort der Verzögerungen zu identifizieren, sei es im Kundenrandnetzwerk, im zentralen Bearbeitungszentrum oder auf der Transaktionsanwendungsebene, bestimmt die Fähigkeit von Dienstanbietern, ihre Handelsdienstleistungsverträge (SLAs) zu erfüllen. Für kauf - und verkaufsseitige Formulare sowie für Marktdaten-Syndikatoren führt die schnelle Identifikation und Beseitigung von Engpässen direkt zu verbesserten Handelsmöglichkeiten und Umsatz. Abbildung 5 Latenzmanagement-Architektur Cisco Low-Latency Monitoring Tools Traditionelle Netzwerk-Monitoring-Tools arbeiten mit Minuten oder Sekunden Granularität. Die nächsten Plattformen der nächsten Generation, vor allem jene, die den algorithmischen Handel unterstützen, erfordern Latenzen weniger als 5 ms und extrem niedrige Pufferverluste. Auf einem Gigabit-LAN ​​kann ein 100 ms microburst 10.000 Transaktionen verloren gehen oder übermäßig verzögert werden. Cisco bietet seinen Kunden eine Auswahl an Tools zur Messung der Latenz in einer Handelsumgebung: Bandbreite Qualitätsmanager (BQM) (OEM von Corvil) Cisco AON-basierte Financial Services Latency Monitoring Solution (FSMS) Bandwidth Quality Manager Bandwidth Quality Manager (BQM) 4.0 ist Ein Netzwerk-Netzwerk-Performance-Management-Produkt der nächsten Generation, das es Kunden ermöglicht, ihr Netzwerk für kontrollierte Latenz - und Verlustleistung zu überwachen und bereitzustellen. Während BQM nicht ausschließlich auf Trading-Netzwerke ausgerichtet ist, ist die Mikrosekunden-Sichtbarkeit mit intelligenten Bandbreiten-Provisioning-Funktionen ideal für diese anspruchsvollen Umgebungen geeignet. Cisco BQM 4.0 implementiert eine breite Palette von patentierten und zum Patent angemeldete Verkehrsmessung und Netzwerkanalysetechnologien, die dem Anwender eine noch nie dagewesene Sichtbarkeit vermitteln und verstehen, wie das Netzwerk für maximale Anwendungsleistung optimiert werden kann. Cisco BQM wird nun auf der Produktfamilie der Cisco Application Deployment Engine (ADE) unterstützt. Die Cisco ADE Produktfamilie ist die Plattform für Cisco Network Management Anwendungen. BQM Vorteile Cisco BQM Mikro-Sichtbarkeit ist die Fähigkeit zu erkennen, zu messen und zu analysieren Latenz, Jitter und Verlust induzieren Verkehrsereignisse bis hin zu Mikrosekunden Ebenen der Granularität mit pro Paketauflösung. Dies ermöglicht es Cisco BQM, die Auswirkungen von Verkehrsereignissen auf Netzwerklatenz, Jitter und Verlust zu erkennen und zu bestimmen. Kritisch für Handelsumgebungen ist, dass BQM Latenz-, Verlust - und Jittermessungen einsetzen kann, sowohl für TCP - als auch für UDP-Multicast-Verkehr. Dies bedeutet, dass es sowohl für den Handelsverkehr als auch für den Marktdaten-Feeds nahtlos berichtet. BQM ermöglicht es dem Benutzer, auf allen Schnittstellen einen umfassenden Satz von Schwellenwerten (gegen Microburst-Aktivität, Latenz, Verlust, Jitter, Nutzung etc.) festzulegen. BQM betreibt dann eine Hintergrundrollenpaketaufnahme. Immer wenn eine Schwellenverletzung oder ein anderes potentielles Leistungsverschlechterungsereignis auftritt, löst es Cisco BQM aus, die Paketaufnahme auf Festplatte für eine spätere Analyse zu speichern. Dies ermöglicht es dem Benutzer, den Anwendungsverkehr, der von der Leistungsverschlechterung betroffen war, zu untersuchen (quotthe victimsquot) und den Verkehr, der die Leistungsverschlechterung verursacht hat (quotthe culpritsquot). Dies kann den Zeitaufwand für die Diagnose und die Behebung von Netzwerkleistungsproblemen erheblich reduzieren. BQM ist auch in der Lage, detaillierte Bandbreite und Quality of Service (QoS) Richtlinienbereitstellungsempfehlungen zur Verfügung zu stellen, die der Benutzer direkt anwenden kann, um die gewünschte Netzwerkleistung zu erreichen. BQM-Messungen Illustriert Um den Unterschied zwischen einigen der herkömmlicheren Messtechniken und der Sichtbarkeit von BQM zu verstehen, können wir einige Vergleichsgraphen anschauen. In dem ersten Satz von Graphen (Abbildung 6 und Abbildung 7) sehen wir den Unterschied zwischen der Latenz, gemessen durch den BQMs Passive Network Quality Monitor (PNQM) und die Latenz, gemessen durch Einspritzen von Ping-Pakete alle 1 Sekunde in den Verkehrsstrom. In Abbildung 6 sehen wir die Latenz, die von 1-Sekunden-ICMP-Ping-Paketen für einen echten Netzwerkverkehr gemeldet wird (es wird durch 2 geteilt, um eine Schätzung für die Einwegverzögerung zu geben). Es zeigt die Verzögerung bequem unter etwa 5ms für fast die ganze Zeit. Abbildung 6 Latenz, die von 1-Sekunden-ICMP-Ping-Paketen für realen Netzwerkverkehr gemeldet wird In Abbildung 7. sehen wir die Latenz, die von PNQM für denselben Verkehr zur gleichen Zeit gemeldet wird. Hier sehen wir, dass wir durch die Messung der Einweg-Latenz der eigentlichen Applikationspakete ein radikal anderes Bild bekommen. Hier ist die Latenz zu sehen, um etwa 20 ms zu schweben, mit gelegentlichen Bursts weit höher. Die Erklärung ist, dass, weil Ping sendet Pakete nur jede Sekunde, es ist völlig fehlt die meisten der Anwendung Traffic Latenz. In der Tat, Ping-Ergebnisse zeigen in der Regel nur Runde Reise Ausbreitung Verspätung statt realistische Anwendung Latenz über das Netzwerk. Abbildung 7 Latenz, die von PNQM für Real Network Traffic gemeldet wird Im zweiten Beispiel (Abbildung 8) sehen wir den Unterschied in den gemeldeten Link-Load - oder Sättigungsniveaus zwischen einer 5-Minuten-Durchschnittsansicht und einer 5-ms-Microburst-Sicht (BQM kann auf Microbursts berichten Bis etwa 10-100 Nanosekunden Genauigkeit). Die grüne Linie zeigt die durchschnittliche Auslastung bei 5-minütigen Mitteln, um niedrig zu sein, vielleicht bis zu 5 Mbitss. Die dunkelblaue Handlung zeigt die 5ms-Mikroburst-Aktivität zwischen 75 Mbitss und 100 Mbitss, die LAN-Geschwindigkeit effektiv. BQM zeigt diese Ebene der Granularität für alle Anwendungen und es gibt auch klare Bereitstellungsregeln, damit der Benutzer diese Mikrobursts kontrollieren oder neutralisieren kann. Abbildung 8 Unterschied in der gemeldeten Link-Last zwischen einer 5-Minuten-Durchschnittsansicht und einer 5-ms-Microburst-Ansicht BQM-Bereitstellung im Handelsnetz Abbildung 9 zeigt eine typische BQM-Bereitstellung in einem Handelsnetzwerk. Abbildung 9 Typische BQM-Bereitstellung in einem Trading-Netzwerk BQM kann dann verwendet werden, um diese Art von Fragen zu beantworten: Sind irgendwelche meiner Gigabit-LAN-Core-Links für mehr als X Millisekunden gesättigt Ist dies Verluste verursachen Welche Links würden am meisten von einem Upgrade auf Etherchannel oder profitieren 10 Gigabit-Geschwindigkeiten Welcher Anwendungsverkehr verursacht die Sättigung meiner 1 Gigabit-Links Ist eine der Marktdaten, die einen End-to-End-Verlust erleiden. Wie viel zusätzliche Latenzzeit macht das Failover-Rechenzentrumserlebnis, ist dieser Link korrekt, um mit Microbursts umzugehen. Sind meine Händler Immer geringe Latenz-Updates von der Marktdatenverteilungsschicht Wenn sie irgendwelche Verzögerungen größer als X Millisekunden sehen können, können diese Fragen einfach und effektiv Zeit und Geld beim Laufen des Handelsnetzes sparen. BQM ist ein wesentliches Instrument, um Markt - und Handelsumgebungen sichtbar zu machen. Es bietet körnige End-to-End-Latenzmessungen in komplexen Infrastrukturen, die eine hochvolumige Datenbewegung erfahren. Die effektive Erkennung von Mikrobursts in Sub-Millisekunden-Ebenen und die Erfassung von Expertenanalysen zu einem bestimmten Ereignis ist für den Handel von Bodenarchitekten von unschätzbarem Wert. Smart-Bandbreiten-Bereitstellungsempfehlungen, wie z. B. Dimensionierung und What-If-Analyse, bieten eine größere Agilität, um auf volatile Marktbedingungen zu reagieren. Da die Explosion des algorithmischen Handels und der zunehmenden Nachrichtenraten fortgesetzt wird, bietet BQM, kombiniert mit seinem QoS-Tool, die Möglichkeit, QoS-Richtlinien zu implementieren, die kritische Handelsanwendungen schützen können. Cisco Financial Services Latency Monitoring Solution Cisco und Trading Metrics haben auf Latency Monitoring Lösungen für FIX Auftragsfluss und Marktdatenüberwachung zusammengearbeitet. Die Cisco AON-Technologie ist die Basis für eine neue Klasse von Netzwerk-Embedded-Produkten und - Lösungen, die intelligente Netzwerke mit der Anwendungsinfrastruktur zusammenführen, basierend auf serviceorientierten oder traditionellen Architekturen. Trading Metrics ist ein führender Anbieter von Analytics-Software für Netzwerk-Infrastruktur und Application Latency Monitoring-Zwecke (tradingmetrics). Die Cisco AON Financial Services Latency Monitoring Solution (FSMS) korrelierte zwei Arten von Ereignissen an der Beobachtungsstelle: Netzwerkereignisse korrelierten direkt mit einer übereinstimmenden Applikationsmeldung im Handling Trade Order Flow und passende Marktaktualisierungsereignisse Mit Zeitstempeln, die am Erfassungspunkt in der network, real-time analysis of these correlated data streams permits precise identification of bottlenecks across the infrastructure while a trade is being executed or market data is being distributed. By monitoring and measuring latency early in the cycle, financial companies can make better decisions about which network serviceand which intermediary, market, or counterpartyto select for routing trade orders. Likewise, this knowledge allows more streamlined access to updated market data (stock quotes, economic news, etc.), which is an important basis for initiating, withdrawing from, or pursuing market opportunities. The components of the solution are: AON hardware in three form factors: AON Network Module for Cisco 2600280037003800 routers AON Blade for the Cisco Catalyst 6500 series AON 8340 Appliance Trading Metrics MampA 2.0 software, which provides the monitoring and alerting application, displays latency graphs on a dashboard, and issues alerts when slowdowns occur (tradingmetricsTMbrochure. pdf ). Figure 10 AON-Based FIX Latency Monitoring Cisco IP SLA Cisco IP SLA is an embedded network management tool in Cisco IOS which allows routers and switches to generate synthetic traffic streams which can be measured for latency, jitter, packet loss, and other criteria (ciscogoipsla ). Two key concepts are the source of the generated traffic and the target. Both of these run an IP SLA quotresponder, quot which has the responsibility to timestamp the control traffic before it is sourced and returned by the target (for a round trip measurement). Various traffic types can be sourced within IP SLA and they are aimed at different metrics and target different services and applications. The UDP jitter operation is used to measure one-way and round-trip delay and report variations. As the traffic is time stamped on both sending and target devices using the responder capability, the round trip delay is characterized as the delta between the two timestamps. A new feature was introduced in IOS 12.3(14)T, IP SLA Sub Millisecond Reporting, which allows for timestamps to be displayed with a resolution in microseconds, thus providing a level of granularity not previously available. This new feature has now made IP SLA relevant to campus networks where network latency is typically in the range of 300-800 microseconds and the ability to detect trends and spikes (brief trends) based on microsecond granularity counters is a requirement for customers engaged in time-sensitive electronic trading environments. As a result, IP SLA is now being considered by significant numbers of financial organizations as they are all faced with requirements to: Report baseline latency to their users Trend baseline latency over time Respond quickly to traffic bursts that cause changes in the reported latency Sub-millisecond reporting is necessary for these customers, since many campus and backbones are currently delivering under a second of latency across several switch hops. Electronic trading environments have generally worked to eliminate or minimize all areas of device and network latency to deliver rapid order fulfillment to the business. Reporting that network response times are quotjust under one millisecondquot is no longer sufficient the granularity of latency measurements reported across a network segment or backbone need to be closer to 300-800 micro-seconds with a degree of resolution of 100 igrave seconds. IP SLA recently added support for IP multicast test streams, which can measure market data latency. A typical network topology is shown in Figure 11 with the IP SLA shadow routers, sources, and responders. Figure 11 IP SLA Deployment Computing Services Computing services cover a wide range of technologies with the goal of eliminating memory and CPU bottlenecks created by the processing of network packets. Trading applications consume high volumes of market data and the servers have to dedicate resources to processing network traffic instead of application processing. Transport processingAt high speeds, network packet processing can consume a significant amount of server CPU cycles and memory. An established rule of thumb states that 1Gbps of network bandwidth requires 1 GHz of processor capacity (source Intel white paper on IO acceleration inteltechnologyioacceleration306517.pdf ). Intermediate buffer copyingIn a conventional network stack implementation, data needs to be copied by the CPU between network buffers and application buffers. This overhead is worsened by the fact that memory speeds have not kept up with increases in CPU speeds. For example, processors like the Intel Xeon are approaching 4 GHz, while RAM chips hover around 400MHz (for DDR 3200 memory) (source Intel inteltechnologyioacceleration306517.pdf ). Context switchingEvery time an individual packet needs to be processed, the CPU performs a context switch from application context to network traffic context. This overhead could be reduced if the switch would occur only when the whole application buffer is complete. Figure 12 Sources of Overhead in Data Center Servers TCP Offload Engine (TOE)Offloads transport processor cycles to the NIC. Moves TCPIP protocol stack buffer copies from system memory to NIC memory. Remote Direct Memory Access (RDMA)Enables a network adapter to transfer data directly from application to application without involving the operating system. Eliminates intermediate and application buffer copies (memory bandwidth consumption). Kernel bypass Direct user-level access to hardware. Dramatically reduces application context switches. Figure 13 RDMA and Kernel Bypass InfiniBand is a point-to-point (switched fabric) bidirectional serial communication link which implements RDMA, among other features. Cisco offers an InfiniBand switch, the Server Fabric Switch (SFS): ciscoapplicationpdfenusguestnetsolns500c643cdccont0900aecd804c35cb. pdf. Figure 14 Typical SFS Deployment Trading applications benefit from the reduction in latency and latency variability, as proved by a test performed with the Cisco SFS and Wombat Feed Handlers by Stac Research: Application Virtualization Service De-coupling the application from the underlying OS and server hardware enables them to run as network services. One application can be run in parallel on multiple servers, or multiple applications can be run on the same server, as the best resource allocation dictates. This decoupling enables better load balancing and disaster recovery for business continuance strategies. The process of re-allocating computing resources to an application is dynamic. Using an application virtualization system like Data Synapses GridServer, applications can migrate, using pre-configured policies, to under-utilized servers in a supply-matches-demand process (wwwworkworldsupp2005ndc1022105virtual. htmlpage2 ). There are many business advantages for financial firms who adopt application virtualization: Faster time to market for new products and services Faster integration of firms following merger and acquisition activity Increased application availability Better workload distribution, which creates more quothead roomquot for processing spikes in trading volume Operational efficiency and control Reduction in IT complexity Currently, application virtualization is not used in the trading front-office. One use-case is risk modeling, like Monte Carlo simulations. As the technology evolves, it is conceivable that some the trading platforms will adopt it. Data Virtualization Service To effectively share resources across distributed enterprise applications, firms must be able to leverage data across multiple sources in real-time while ensuring data integrity. With solutions from data virtualization software vendors such as Gemstone or Tangosol (now Oracle), financial firms can access heterogeneous sources of data as a single system image that enables connectivity between business processes and unrestrained application access to distributed caching. The net result is that all users have instant access to these data resources across a distributed network (gridtoday030210101061.html ). This is called a data grid and is the first step in the process of creating what Gartner calls Extreme Transaction Processing (XTP) (gartnerDisplayDocumentrefgsearchampid500947 ). Technologies such as data and applications virtualization enable financial firms to perform real-time complex analytics, event-driven applications, and dynamic resource allocation. One example of data virtualization in action is a global order book application. An order book is the repository of active orders that is published by the exchange or other market makers. A global order book aggregates orders from around the world from markets that operate independently. The biggest challenge for the application is scalability over WAN connectivity because it has to maintain state. Todays data grids are localized in data centers connected by Metro Area Networks (MAN). This is mainly because the applications themselves have limitsthey have been developed without the WAN in mind. Figure 15 GemStone GemFire Distributed Caching Before data virtualization, applications used database clustering for failover and scalability. This solution is limited by the performance of the underlying database. Failover is slower because the data is committed to disc. With data grids, the data which is part of the active state is cached in memory, which reduces drastically the failover time. Scaling the data grid means just adding more distributed resources, providing a more deterministic performance compared to a database cluster. Multicast Service Market data delivery is a perfect example of an application that needs to deliver the same data stream to hundreds and potentially thousands of end users. Market data services have been implemented with TCP or UDP broadcast as the network layer, but those implementations have limited scalability. Using TCP requires a separate socket and sliding window on the server for each recipient. UDP broadcast requires a separate copy of the stream for each destination subnet. Both of these methods exhaust the resources of the servers and the network. The server side must transmit and service each of the streams individually, which requires larger and larger server farms. On the network side, the required bandwidth for the application increases in a linear fashion. For example, to send a 1 Mbps stream to 1000recipients using TCP requires 1 Gbps of bandwidth. IP multicast is the only way to scale market data delivery. To deliver a 1 Mbps stream to 1000 recipients, IP multicast would require 1 Mbps. The stream can be delivered by as few as two serversone primary and one backup for redundancy. There are two main phases of market data delivery to the end user. In the first phase, the data stream must be brought from the exchange into the brokerages network. Typically the feeds are terminated in a data center on the customer premise. The feeds are then processed by a feed handler, which may normalize the data stream into a common format and then republish into the application messaging servers in the data center. The second phase involves injecting the data stream into the application messaging bus which feeds the core infrastructure of the trading applications. The large brokerage houses have thousands of applications that use the market data streams for various purposes, such as live trades, long term trending, arbitrage, etc. Many of these applications listen to the feeds and then republish their own analytical and derivative information. For example, a brokerage may compare the prices of CSCO to the option prices of CSCO on another exchange and then publish ratings which a different application may monitor to determine how much they are out of synchronization. Figure 16 Market Data Distribution Players The delivery of these data streams is typically over a reliable multicast transport protocol, traditionally Tibco Rendezvous. Tibco RV operates in a publish and subscribe environment. Each financial instrument is given a subject name, such as CSCO. last. Each application server can request the individual instruments of interest by their subject name and receive just a that subset of the information. This is called subject-based forwarding or filtering. Subject-based filtering is patented by Tibco. A distinction should be made between the first and second phases of market data delivery. The delivery of market data from the exchange to the brokerage is mostly a one-to-many application. The only exception to the unidirectional nature of market data may be retransmission requests, which are usually sent using unicast. The trading applications, however, are definitely many-to-many applications and may interact with the exchanges to place orders. Figure 17 Market Data Architecture Design Issues Number of GroupsChannels to Use Many application developers consider using thousand of multicast groups to give them the ability to divide up products or instruments into small buckets. Normally these applications send many small messages as part of their information bus. Usually several messages are sent in each packet that are received by many users. Sending fewer messages in each packet increases the overhead necessary for each message. In the extreme case, sending only one message in each packet quickly reaches the point of diminishing returnsthere is more overhead sent than actual data. Application developers must find a reasonable compromise between the number of groups and breaking up their products into logical buckets. Consider, for example, the Nasdaq Quotation Dissemination Service (NQDS). The instruments are broken up alphabetically: This approach allows for straight forward networkapplication management, but does not necessarily allow for optimized bandwidth utilization for most users. A user of NQDS that is interested in technology stocks, and would like to subscribe to just CSCO and INTL, would have to pull down all the data for the first two groups of NQDS. Understanding the way users pull down the data and then organize it into appropriate logical groups optimizes the bandwidth for each user. In many market data applications, optimizing the data organization would be of limited value. Typically customers bring in all data into a few machines and filter the instruments. Using more groups is just more overhead for the stack and does not help the customers conserve bandwidth. Another approach might be to keep the groups down to a minimum level and use UDP port numbers to further differentiate if necessary. The other extreme would be to use just one multicast group for the entire application and then have the end user filter the data. In some situations this may be sufficient. Intermittent Sources A common issue with market data applications are servers that send data to a multicast group and then go silent for more than 3.5 minutes. These intermittent sources may cause trashing of state on the network and can introduce packet loss during the window of time when soft state and then hardware shorts are being created. PIM-Bidir or PIM-SSM The first and best solution for intermittent sources is to use PIM-Bidir for many-to-many applications and PIM-SSM for one-to-many applications. Both of these optimizations of the PIM protocol do not have any data-driven events in creating forwarding state. That means that as long as the receivers are subscribed to the streams, the network has the forwarding state created in the hardware switching path. Intermittent sources are not an issue with PIM-Bidir and PIM-SSM. Null Packets In PIM-SM environments a common method to make sure forwarding state is created is to send a burst of null packets to the multicast group before the actual data stream. The application must efficiently ignore these null data packets to ensure it does not affect performance. The sources must only send the burst of packets if they have been silent for more than 3 minutes. A good practice is to send the burst if the source is silent for more than a minute. Many financials send out an initial burst of traffic in the morning and then all well-behaved sources do not have problems. Periodic Keepalives or Heartbeats An alternative approach for PIM-SM environments is for sources to send periodic heartbeat messages to the multicast groups. This is a similar approach to the null packets, but the packets can be sent on a regular timer so that the forwarding state never expires. S, G Expiry Timer Finally, Cisco has made a modification to the operation of the S, G expiry timer in IOS. There is now a CLI knob to allow the state for a S, G to stay alive for hours without any traffic being sent. The (S, G) expiry timer is configurable. This approach should be considered a workaround until PIM-Bidir or PIM-SSM is deployed or the application is fixed. RTCP Feedback A common issue with real time voice and video applications that use RTP is the use of RTCP feedback traffic. Unnecessary use of the feedback option can create excessive multicast state in the network. If the RTCP traffic is not required by the application it should be avoided. Fast Producers and Slow Consumers Today many servers providing market data are attached at Gigabit speeds, while the receivers are attached at different speeds, usually 100Mbps. This creates the potential for receivers to drop packets and request re-transmissions, which creates more traffic that the slowest consumers cannot handle, continuing the vicious circle. The solution needs to be some type of access control in the application that limits the amount of data that one host can request. QoS and other network functions can mitigate the problem, but ultimately the subscriptions need to be managed in the application. Tibco Heartbeats TibcoRV has had the ability to use IP multicast for the heartbeat between the TICs for many years. However, there are some brokerage houses that are still using very old versions of TibcoRV that use UDP broadcast support for the resiliency. This limitation is often cited as a reason to maintain a Layer 2 infrastructure between TICs located in different data centers. These older versions of TibcoRV should be phased out in favor of the IP multicast supported versions. Multicast Forwarding Options PIM Sparse Mode The standard IP multicast forwarding protocol used today for market data delivery is PIM Sparse Mode. It is supported on all Cisco routers and switches and is well understood. PIM-SM can be used in all the network components from the exchange, FSP, and brokerage. There are, however, some long-standing issues and unnecessary complexity associated with a PIM-SM deployment that could be avoided by using PIM-Bidir and PIM-SSM. These are covered in the next sections. The main components of the PIM-SM implementation are: PIM Sparse Mode v2 Shared Tree (spt-threshold infinity) A design option in the brokerage or in the exchange. Machine Learning Trading Systems The SPDR SampP 500 ETF (SPY) is one of the widely traded ETF products on the market, with around 200Bn in assets and average turnover of just under 200M shares daily. So the likelihood of being able to develop a money-making trading system using publicly available information might appear to be slim-to-none. So, to give ourselves a fighting chance, we will focus on an attempt to predict the overnight movement in SPY, using data from the prior day8217s session. In addition to the openhighlow and close prices of the preceding day session, we have selected a number of other plausible variables to build out the feature vector we are going to use in our machine learning model: The daily volume The previous day8217s closing price The 200-day, 50-day and 10-day moving averages of the closing price The 252-day high and low prices of the SPY series We will attempt to build a model that forecasts the overnight return in the ETF, i. e. O(t1)-C(t) C(t) In this exercise we use daily data from the beginning of the SPY series up until the end of 2014 to build the model, which we will then test on out-of-sample data running from Jan 2015-Aug 2016. In a high frequency context a considerable amount of time would be spent evaluating, cleaning and normalizing the data. Here we face far fewer problems of that kind. Typically one would standardized the input data to equalize the influence of variables that may be measured on scales of very different orders of magnitude. But in this example all of the input variables, with the exception of volume, are measured on the same scale and so standardization is arguably unnecessary. First, the in-sample data is loaded and used to create a training set of rules that map the feature vector to the variable of interest, the overnight return: In Mathematica 10 Wolfram introduced a suite of machine learning algorithms that include regression, nearest neighbor, neural networks and random forests, together with functionality to evaluate and select the best performing machine learning technique. These facilities make it very straightfoward to create a classifier or prediction model using machine learning algorithms, such as this handwriting recognition example: We create a predictive model on the SPY trainingset, allowing Mathematica to pick the best machine learning algorithm: There are a number of options for the Predict function that can be used to control the feature selection, algorithm type, performance type and goal, rather than simply accepting the defaults, as we have done here: Having built our machine learning model, we load the out-of-sample data from Jan 2015 to Aug 2016, and create a test set: We next create a PredictionMeasurement object, using the Nearest Neighbor model. that can be used for further analysis: There isn8217t much dispersion in the model forecasts, which all have positive value. A common technique in such cases is to subtract the mean from each of the forecasts (and we may also standardize them by dividing by the standard deviation). The scatterplot of actual vs. forecast overnight returns in SPY now looks like this: There8217s still an obvious lack of dispersion in the forecast values, compared to the actual overnight returns, which we could rectify by standardization. In any event, there appears to be a small, nonlinear relationship between forecast and actual values, which holds out some hope that the model may yet prove useful. From Forecasting to Trading There are various methods of deploying a forecasting model in the context of creating a trading system. The simplest route, which we will take here, is to apply a threshold gate and convert the filtered forecasts directly into a trading signal. But other approaches are possible, for example: Combining the forecasts from multiple models to create a prediction ensemble Using the forecasts as inputs to a genetic programming model Feeding the forecasts into the input layer of a neural network model designed specifically to generate trading signals, rather than forecasts In this example we will create a trading model by applying a simple filter to the forecasts, picking out only those values that exceed a specified threshold. This is a standard trick used to isolate the signal in the model from the background noise. We will accept only the positive signals that exceed the threshold level, creating a long-only trading system. i. e. we ignore forecasts that fall below the threshold level. We buy SPY at the close when the forecast exceeds the threshold and exit any long position at the next day8217s open. This strategy produces the following pro-forma results: Conclusion The system has some quite attractive features, including a win rate of over 66 and a CAGR of over 10 for the out-of-sample period. Obviously, this is a very basic illustration: we would want to factor in trading commissions, and the slippage incurred entering and exiting positions in the post - and pre-market periods, which will negatively impact performance, of course. On the other hand, we have barely begun to scratch the surface in terms of the variables that could be considered for inclusion in the feature vector, and which may increase the explanatory power of the model. In other words, in reality, this is only the beginning of a lengthy and arduous research process. Nonetheless, this simple example should be enough to give the reader a taste of what8217s involved in building a predictive trading model using machine learning algorithms.

Comments