Diseño Del Sistema De Trading C ++


BarsMonster: Pude ver aunque para las cosas como las pilas de redes, que son completamente dependientes de la plataforma, requeriría un poco de conocimiento antes de poder cambiar de plataformas. Más cosas como fork que son comunes en POSIX mundo pero no son posibles en un entorno de Windows. Creo que es una respuesta razonable. Linux / UNIX son mucho más utilizables para usuarios remotos concurrentes, lo que facilita el script alrededor de los sistemas, utiliza herramientas estándar como grep / sed / awk / perl / ruby ​​/ less en los registros. Ssh / scp Todo eso se acaba ahí. También hay problemas técnicos, por ejemplo: para medir el tiempo transcurrido en Windows, puede elegir entre un conjunto de funciones basado en la marca del reloj de Windows y el QueryPerformanceCounter () basado en hardware. El primero se incrementa cada 10 a 16 milisegundos (nota: algunos documentos implican mayor precisión - por ejemplo, los valores de GetSystemTimeAsFileTime () miden a 100ns, pero informan el mismo borde de 100ns de la marca de reloj hasta que vuelva a marcar). Este último - QueryPerformanceCounter () - tiene problemas de show-stopping donde diferentes núcleos / cpus pueden reportar relojes-desde-startup que difieren por varios segundos debido a ser calentados en diferentes momentos durante el arranque del sistema. MSDN documenta esto como un posible error de BIOS, pero es común. Por lo tanto, ¿quién quiere desarrollar sistemas de negociación de baja latencia en una plataforma que no se puede instrumentar correctamente (hay soluciones, pero no encontrará ningún software que se sientan convenientemente en impulso o ACE). Muchas variantes de Linux / UNIX tienen muchos parámetros fáciles de ajustar para compensar la latencia de un solo evento contra la latencia promedio bajo carga, los tamaños de segmento de tiempo, las políticas de programación, etc. En los sistemas operativos de código abierto, también hay la garantía de poder referir Al código cuando crees que algo debe ser más rápido de lo que es, y el conocimiento de que una (potencialmente enorme) comunidad de personas han estado y están haciendo tan críticamente - con Windows obviamente, principalmente, va a ser la gente puta asignada a mirarlo . En el lado de FUD / reputación - algo intangible pero una parte importante de las razones para la selección del OS - pienso que la mayoría de los programadores en la industria confiarían más en Linux / UNIX más para proporcionar programación y comportamiento confiables. Además, Linux / UNIX tiene una reputación de fallar menos, aunque Windows es bastante confiable en estos días, y Linux tiene una base de código mucho más volátil que Solaris o FreeBSD. Los sistemas operativos cliente de Windows sólo permiten que una persona utilice RDP a la vez. Sin embargo Windows Terminal Server ha estado alrededor para siempre (era, de hecho, el uso original de RDP) y permite tantas conexiones como usted tiene licencias del acceso del cliente. Los sistemas operativos Windows Server vienen con la capacidad de tener más de un usuario remoto de forma predeterminada. Si pudieras encontrar el comentario sobre la programación entonces yo aquí - esa parte de la respuesta parece ser FUD en este momento para mí (el resto de la respuesta es buena). YMMV. Ndash Billy ONeal ago 29 10 at 0:50 No hay programación de UNIX / Linux. Es una de las áreas en las que las implementaciones difieren. Y Linux, de hecho, ha tenido más de una opción de planificador (google Completely Fair Scheduler Linux para el fondo), por lo que puede incluso decir que la programación quotLinux es confiable. Ndash MSalters Aug 30 10 at 11:37 En segundo lugar las opiniones de histórico y el acceso a la manipulación del kernel. Aparte de esas razones también creo que al igual que la forma en que desactivar la recolección de basura de. NET y el mecanismo similar en Java cuando se utiliza estas tecnologías en algunos de baja latencia. Podrían evitar Windows debido a las API de alto nivel que interactúan con os de bajo nivel y, a continuación, el kernel. Así que el núcleo es, por supuesto, el núcleo que se puede interactuar con el uso de bajo nivel de os. Las API de alto nivel se proporcionan sólo para facilitar la vida de los usuarios comunes. Pero en caso de baja latencia esto resulta ser una capa grasa y una fracción de segundos de pérdida alrededor de cada operación. Así que una opción lucrativa para ganar pocos segundos de fracción por llamada. Aparte de esto, otra cosa a considerar es la integración. La mayoría de los servidores, centros de datos, intercambios utilizan ventanas UNIX no así que usar los clientes de la misma familia facilita la integración y la comunicación. Entonces usted tiene problemas de seguridad (muchas personas por ahí no pueden estar de acuerdo con este punto sin embargo) hacking UNIX no es fácil en comparación con el hackeo de WINDOWS. No estoy de acuerdo con la concesión de licencias debe ser el problema para los bancos, ya que el dinero de la ducha en cada pieza de hardware y software y las personas que los personalizan, por lo que la compra de licencias no será más grande el tema cuando se considera lo que ganan por la compra. Respondió Dec 21 12 at 20:05 Su respuesta 2016 Stack Exchange, IncTSL AUTOMÁTICAMENTE DISEÑA, PRUEBA Y ESCRIBE SISTEMAS DE COMERCIO Y NO REQUIERE PROGRAMACIÓN. POR FAVOR VER LA DEMO DE 6 MINUTOS AQUÍ. Raquo NOVIEMBRE 2016 ACTUALIZACIÓN: TSL ESTARÁ EN LA EXPO INTERNACIONAL DE COMERCIANTES EN LAS VEGAS 16-18 DE NOVIEMBRE DE 2016 Mike Barna, Presidente y Fundador de Trading System Lab, estará presente en la Feria Internacional de Traders de Las Vegas de 2016 el 17 y 18 de noviembre. Estará hablando y dando demostraciones en vivo en TSL, EVORUN y DAS durante varias sesiones programadas. Además, se llevarán a cabo demostraciones, reuniones y grupos de discusión no programados de TSL a lo largo de la Expo. Texto Mike en el número de teléfono de contacto rápido a la derecha si usted está en la Expo y desea hablar con Mike en privado, ser parte de un pequeño grupo, o si desea ver las características específicas de TSL durante cualquiera de las conferencias de la sesión y población. Este es el gran evento comercial del año y no debe perderse. La inscripción es GRATUITA. El enlace está aquí: Vaya a Las Vegas Internacional Traders Expo 2016 raquo TSL SE AGRADECE ANUNCIAR LA LIBERACIÓN DE DTDB: DTDB significa Day Trade Discrete Bars. Este paquete permite el comercio de barras discretas individuales sobre una base individual de barras. Entrando en un límite, mercado o parada, el comercio por lo general saldrá al cierre de una barra de tipo de tiempo, volumen, rango, etc. Una vez diseñado, utilizando el informe Estadísticas del Sistema TSL, el usuario puede determinar el mejor momento del día, el día de la semana, el día del mes, el día de la semana en el mes, la semana del año y el mes del año. Filtrar de esta manera captura el flujo de dinero temprano y tarde en el mes o trimestre que se ha observado en el volumen de los mercados de capitales, por ejemplo. Además, es bien sabido que la volatilidad intra día tiene una forma de U con alta volatilidad que ocurre temprano y tarde en el día. Este efecto se puede orientar mediante sesiones de diseño personalizado y el enfoque de filtrado de informes de Estadísticas del sistema. Las características para el diseño del algoritmo que captura los movimientos a corto plazo y daytrading en el mercado usando TSL es substancial y ofrece un ambiente rico para el descubrimiento y el diseño. Consulte la demostración de flash DTDB para obtener más información. Diríjase a la demostración del DAS Flashes TSL ESTA DISPONIBLE PARA ANUNCIAR LA LIBERACIÓN DE DAS: TSL es fácil de usar pero DAS toma la facilidad de uso a otro nivel. DAS va más allá de EVORUN proporcionando un mayor nivel de control sobre la coreografía de diseño automático que tiene lugar entre el Automático Lineal de Código de Máquina con Motor de Programación Genética y las rutinas de Simulación Integrada de Operaciones inherentes a TSL. DAS permite al usuario humano evaluar el efecto de varios criterios comerciales mucho más rápido que antes con un control directo sobre el motor durante el tiempo de diseño. DAS explota las capacidades de generación de ALPHA del motor de escritura de código TSL a un nivel que era previamente inalcanzable. Usando DAS, los usuarios ahora pueden dirigir y redirigir la ejecución, en Tiempo de Diseño, durante la ejecución del diseño, no simplemente configurando la ejecución y luego ejecutando la ejecución. EVORUN proporciona al usuario un mecanismo de ejecución automático multi-lotes que permite una carrera más larga que abarca muchas variantes comerciales y de simulación para ser explorado durante la ejecución, sin embargo DAS conecta el diseñador humano con el motor de diseño permitiendo una amplia gama de inmediatos si los escenarios A ser explorado. El avance conceptual de DAS de TSL es a la vez creativo y único en este negocio y proporciona al usuario las capacidades de diseño y producción de ALPHA de las que solo podríamos haber soñado hace unos años, señala el presidente de TSL, Michael Barna. El plan ahora es que el DAS será lanzado oficialmente a los clientes en o antes de la Feria Internacional de Comerciantes de noviembre en Las Vegas donde TSL estará dando varias presentaciones en TSL, EVORUN y DAS. Nuevos videos de DAS se pueden encontrar aquí-Demo 57 y 58: Ir a las demostraciones de Flash DAS raquo Super Buffer Update: Dentro de los sistemas patentados LAIMGP Trading se almacenan para su implementación durante la ejecución. Anteriormente, 30 Mejores Programas de Sistema de Negociación se pondrían a disposición para su implementación cuando se terminara la ejecución. TSL ha aumentado este Buffer de Programa de Sistemas de Negocio Mejor a 300. Por lo tanto, un usuario puede seleccionar de una lista mucho más grande de Sistemas de Negocio cuando se termina la ejecución. Este Búfer incrementado estará disponible para las Rondas Básicas, EVORUN y DAS. Por favor, lea más abajo para obtener información sobre DAS. Varias demostraciones nuevas se han añadido a la página de demostraciones en Flash: Vaya a la página de demostraciones Flash. Disfrute En el actual informe de junio de 2016, TSL permanece en la parte superior de la lista de sistemas de negociación evaluados en datos secuestrados por futuro. TSL tiene el sistema de bonos 1 y 2, 2 de los 10 principales sistemas eMini SP, 1 sistema de gas natural, 1 sistema desde la fecha de lanzamiento y 2 de los 10 sistemas más importantes desde la fecha de lanzamiento. Human Designed ya en 2007. Futures Truth es un CTA, tiene una plantilla de diseñadores de Trading System, registra más de 700 Trading System Market-Models presentado por más de 80 en todo el mundo Trading Strategy Quants y ha estado siguiendo los sistemas de Trading desde 1985. Los clientes TSL van desde Principiante a PhD Quant. Los sistemas de comercio de fin de día (EOD) son los más simples y rápidos para el diseño de máquinas. Incluso en una cartera de muchos mercados, el motor TSL diseña los sistemas de negociación a un ritmo muy alto gracias a las manipulaciones patentadas del GP del registro ya los algoritmos de simulación, fitness y traducción de alta velocidad. Nuestra tecnología de GP está bien documentada en el libro de texto universitario líder en Programación Genética escrito por uno de los socios de TSL, Frank Francone. Particularmente importante es el hecho de que aún después de 8 años de pruebas independientes de Sequestered Data, TSL Machine Designed Trading Algorithms ocupa más altos índices de rendimiento que cualquier otra compañía de desarrollo - 5 de los Top 10 desde la fecha de lanzamiento, 3 de los 10 mejores sistemas Durante los últimos 12 meses, y 2 de los 10 principales sistemas de eMini SP. Fin de los sistemas de comercio de día son muy populares, sin embargo los sistemas de comercio intradía apelar a los comerciantes más riesgosos y el interés en los sistemas de comercio a corto plazo ha aumentado en los últimos meses. Tal vez debido a la preocupación por los tipos de interés más altos, el colapso de los precios de la energía y las materias primas, la incertidumbre geopolítica, el terrorismo o la reciente volatilidad del mercado, muchos comerciantes están menos dispuestos a mantener posiciones durante la noche. La lógica aquí es que con el riesgo a un día, el grado de exposición y, en consecuencia, la posibilidad de mayores tiradas se incrementa. Por supuesto, la volatilidad intradía podría colapsar o expandirse, dando lugar a rendimientos amortiguados o riesgo sustancial, así, en particular para el comerciante de corto plazo direccional. Sin embargo, no mantener una posición de negociación durante la noche tiene una gran cantidad de apelación, especialmente si los costos de negociación puede ser controlado y la producción alfa del sistema de comercio es suficiente. TSL tiene una gran variedad de características de comercio de día, incluyendo funciones de fitness a corto plazo, preprocesadores y tipos específicos de comercio Daytrading. Los usuarios de TSL Machine pueden seleccionar la frecuencia de negociación, los objetivos comerciales promedio, los tiempos de negociación, los objetivos de reducción y una serie de otros objetivos de diseño. Además, la configuración de entrada para TradeStation y MultiCharts se exportan permitiendo la importación fácil a estas plataformas. TSL se complace en anunciar que CSI COMMODITY SYSTEMS, INC. Y TSL han formado un acuerdo para proporcionar a nuestros clientes una cartera de datos de productos básicos, diseñada específicamente para TSL Machine Learning. Para obtener estos datos se requiere una suscripción de datos CSI. Ningún otro proveedor proporciona estos datos diseñados específicamente. Estos datos diarios permitirán un mejor diseño de la estrategia de negociación utilizando TSL y es el resultado de muchos años de investigación y desarrollo de requisitos de datos. Sin datos adecuados, los diseños robustos de la estrategia de negociación son muy difíciles de lograr. Estos portafolios de datos se descargan e instalan como parte de la aplicación de datos CSI. Archivos auxiliares como archivos. DOP y Attributes. INI son preensamblados por TSL para permitir la importación de datos fácil en TradeStation. Otras plataformas que pueden leer datos de precio ASCII, MetaStock o CSI pueden cargar estos datos también para su uso con TSL. Póngase en contacto con TSL para obtener más información sobre los nuevos datos de diseño del sistema comercial. Se ha demostrado que CSI tiene los datos más precisos sobre los productos disponibles. Para aquellos de nosotros que vivimos y trabajamos en Silicon Valley, TSL está patrocinando un grupo de MEETUP para personas interesadas en el Aprendizaje de Máquinas aplicado a Estrategias de Negocio, donde exploraremos varias aplicaciones y personalizaciones de la plataforma TSL. Puede inscribirse aquí y conocer a otros profesionales comerciales que están trabajando con TSL y la tecnología de aprendizaje automático. Únase a Silicon Valley Aprendizaje de Máquinas para Estrategias de Negocio MeetUp Group raquo TSL se complace en lanzar TSL Versión 1.3.2 Carteras, Pares y Opciones y la última generación de 2017 para Sistemas Direccionales de Mercado Único. Póngase en contacto con nosotros para obtener información sobre estas últimas versiones que se centran en direccionales, largos o cortos, daytrading, Fitness API y nuevas características de entrada, riesgo y salida. Los últimos informes sobre la Verdad de los Futuros aún muestran que TSL Machine Learning diseñó estrategias de negociación mejor valoradas en los datos secuestrados 7 años después de que sus diseños fueron congelados y lanzados para un seguimiento independiente que señala robustez en el futuro para estas TSL Machine Designed Strategies. ACTUALIZACIÓN DE QUANT SYSTEMS LAB: TSL sigue siendo la plataforma principal de elección para el profesional y profesional no profesional. Quant Systems Lab, sin embargo, es una plataforma de aprendizaje de nivel institucional de alto nivel que ofrece características más apropiadas para el programador cuantitativo avanzado que utiliza rutinariamente una variedad de API y lenguajes y entornos de desarrollo de programación. Las características QSLs no se encuentran en ninguna otra plataforma de desarrollo de estrategias comerciales en el mundo. QSL también abarca todas las características de desarrollo ricas que se encuentran en la plataforma base TSL. QSL está actualmente en desarrollo. RML y TSL están buscando activamente asociaciones con instituciones que deseen dirigir este entorno de desarrollo y aplicación en una dirección que sea apropiada para sus metas y deseos en relación con el enfoque comercial, la investigación y el desarrollo y entornos de implementación. Este es un buen momento para inyectar sus propios requisitos en la próxima ola de Aprendizaje Automático aplicada al diseño de la estrategia de negociación. Póngase en contacto con TSL o RML directamente para obtener más información sobre este nuevo y único y emocionante desarrollo. TSL es un algoritmo de Aprendizaje Automático que escribe automáticamente Sistemas de Negociación y los Sistemas de Negociación creados por esta máquina son los más valorados por Futures Truth y fueron evaluados en Sequestered Data. No se requiere ninguna programación. Ninguna otra herramienta del sistema de comercio en el mundo ha alcanzado este nivel de logro. TSL es una plataforma notable dado el hecho de que los sistemas de comercio diseñados por la máquina TSL hace más de 7 años todavía son clasificados por Futures Truth. TSL emplea un motor patentado de Inducción Automática de Código de Máquina con Programación Genética capaz de velocidades muy altas y TSL produce código de producción, reduciendo o eliminando la necesidad de esfuerzos de programación de sistemas comerciales y experiencia en análisis técnico. El resumen ejecutivo y demostración que se encuentra a continuación le dará una visión general de esta poderosa herramienta de producción de estrategia comercial. Es importante señalar que TSL diseña un número ilimitado de estrategias de negociación en cualquier mercado, en cualquier marco de tiempo, día de negociación o al final del día, así como carteras, pares y opciones, una vez más, sin necesidad de programación. Los clientes van desde principiantes hasta investigadores de nivel de doctorado y desarrolladores, nacionales e internacionales, así como CTAs / CPOs, Hedge Funds y Prop tiendas. Ahora, con 7 años de experiencia sirviendo a clientes comerciales, TSL ha adquirido un alto nivel de experiencia en Aprendizaje Automático aplicado a los Sistemas de Negociación. TSL proporciona capacitación y asesoramiento uno a uno sin costo adicional para los clientes, para ayudar a asegurar que los clientes aprovechen al máximo el motor TSL. Después de 7 años de pruebas de terceros en datos secuestrados, la forma más extrema de las pruebas avanzadas, TSL Machine Designed Trading Systems todavía ocupan 4 De las 10 estrategias de negociación más importantes desde la fecha de lanzamiento, tal y como las registró Futures Truth, incluyendo el 1 sistema desde la fecha de lanzamiento, 2 de los 10 principales sistemas de los últimos 12 meses y 2 de los 10 principales sistemas eMini SP. Estos sistemas de código abierto fueron diseñados por la máquina TSL sin necesidad de programación. Tenga en cuenta que estos sistemas ES fueron diseñados en los datos de tamaño completo SP 500 Futures, no los eMini SP Futures Data, pero se continuó para ser rastreados y clasificados en los datos de ES que no fueron diseñados originalmente en 2007. Ir a la página web de Futures Truth Raquo Los informes históricos adicionales pueden encontrarse en los informes históricos de Futures Truths, así como en el material de presentación de TSL. Ir a la carta de opinión de verdad de futuros raquo Trading System Lab reduce la complejidad del diseño de la estrategia de negociación a unos pocos ajustes y clics del ratón, Ahorro de tiempo, dinero y programación. Este Self Designing Trading Strategy Algorithm utiliza un programa genético avanzado, patentado, basado en registros (que no debe confundirse con un Algoritmo Genético) que no está disponible en ningún otro lugar del mundo. Estas estrategias de comercialización diseñadas por la máquina se mantuvieron sólidas a través de los años de fusión financiera extrema y posterior recuperación. Este cambio de paradigma demostró que un algoritmo de aprendizaje automático bien elegido y desarrollado puede diseñar automáticamente estrategias de negociación robustas. El LAIMGP fue desarrollado por RML Technologies, Inc. y las rutinas de Simulación, Preprocesamiento, Traducción, Aptitud e Integración fueron realizadas por el Trading System Lab (TSL). TSL licita el paquete completo a particulares, empresas comerciales propietarias y fondos de cobertura. Preprocesar sus datos, ejecute el programa genético avanzado y luego implementar a su plataforma de negociación. Demostramos este proceso en un simple demo flash de 6 minutos disponible en el siguiente enlace. Todas las estrategias de negociación de TSL se exportan desde la máquina totalmente divulgadas en código abierto. Las estrategias de TSL han sido evaluadas por terceros en los datos secuestrados. Los argumentos en relación con el uso de datos fuera de muestra (OOS, por sus siglas en inglés) se centran generalmente en torno al posible uso accidental de estos datos presentados en los procesos de desarrollo. Si esto sucede, entonces los datos ciegos ya no son ciegos, se ha corrompido. Para eliminar esta posibilidad, TSL presentó estrategias diseñadas por la máquina para la prueba de Sequestered Data. Lo que esto significa es que la medición del rendimiento de la estrategia se produce en el futuro. Dado que los datos presentados no existen cuando se diseñaron las estrategias, no hay manera de que estos datos de evaluación puedan ser usados ​​accidentalmente en el proceso de desarrollo. Las estrategias producidas por la Máquina TSL han sido probadas en Sequestered Data por el tercero independiente, Futures Truth y son las más valoradas, superando a la mayoría de los Sistemas de Negociación Humanos o Diseñados Manualmente. Para aquellos de ustedes que perdieron el seminario Web de LinkedIn Automated Trading Strategies presentado por Trading System Lab titulado: WHO DESIGNS BETTER TRADING STRATEGIES Un HUMANO O UNA MÁQUINA puede descargarlo aquí: Descargue el Webinar de TSL: raquo El período libre ha terminado para el nuevo Libro de Kindle que contiene nuestro artículo titulado: Sistemas de Negocio Diseñados por la Máquina, sin embargo, puede descargar este Libro Kindle de bajo costo aquí: Libro Kindle raquo TSL ahora está oficialmente en el Mapa del Valle del Silicio. Mapa de Silicon Valley y ubicación de TSL (posición de 6 horas) raquo TSL es una máquina que diseña algoritmos, paseos delanteros, backtests, funcionamientos múltiples, EVORUNS y código de la exportación en una variedad de idiomas. En lo que respecta a la robustez hacia adelante, TSL mantiene numerosos rankings superiores con algoritmos de negociación diseñados por la máquina según lo informado por la compañía independiente de informes, Futures Truth. Estos sistemas (diseñados por la máquina) superados, en marcha adelante, la mayoría o todos los otros sistemas de seguimiento (diseñado manualmente), e incluía el deslizamiento y la comisión en la prueba. (Ver referencias a continuación) El cambio de paradigma es que estos sistemas fueron diseñados por una máquina, no un humano, y la máquina TSL diseña millones de sistemas a tasas muy altas usando un algoritmo avanzado, exclusivo, patentado (LAIMGP), diseñado específicamente para automáticamente Sistemas de comercio de diseño. Los operadores sin experiencia en programación pueden ejecutar la plataforma TSL, producir los algoritmos de negociación y desplegarlos en una variedad de Plataformas de Negociación incluyendo TradeStation, MultiCharts y OMS / EMS especializados. Los programadores y quants pueden realizar trabajos aún más avanzados ya que los conjuntos de terminales son completamente personalizables. TSL es capaz de utilizar ADN de datos múltiples dentro de sus preprocesadores. Ver Demo 48 donde usamos el índice de volatilidad CBOE (VIX) para diseñar un sistema de comercio eMini SP. Este tipo de trabajo de diseño es sencillo de realizar en TSL, ya que el preprocesador es totalmente personalizable utilizando sus patrones e indicadores únicos en un diseño de flujo de datos único o múltiple. Se ha demostrado que los preprocesadores mejorados ofrecen un impulso adicional al rendimiento del sistema de comercio. TSL ahora ofrece un traductor BLOX. Póngase en contacto con nosotros o Darryl Tremelling en Voyager Trading para obtener más detalles. ¿Cómo funciona el Software TSL que escribe Software Machine fuera de diseño de otras presentaciones humanas a FT sin necesidad de programación ¿Cómo funcionan realmente los sistemas de comercio diseñados por máquinas Nuestra cronología de desarrollo está bien cubierta en nuestros White Papers y Flash Demos disponibles en el sitio web de TSL. El WEBINAR de Linkden Automated Trading Strategies se puede encontrar aquí: Ir a LinkedIn WEBINAR raquo El 2017 OUANTLABS WEBINAR se puede encontrar aquí: Ir al 2017 QUANTLABS WEBINAR raquo El 2014 OUANTLABS WEBINAR se puede encontrar aquí: Ir al 2014 QUANTLABS WEBINAR raquo ¿Qué Es el Optimum Bar Size para operar 100 tick, 15 minutos, diariamente. El nuevo módulo EVORUN de TSL permite que las estrategias sean diseñadas por la máquina mientras iteran sobre tamaño de barra, tipo de comercio, preprocesador, frecuencia de negociación y función de acondicionamiento físico en un multirun. EVORUN y TSL Versión 1.3 Las demostraciones 51 y 52 ya están disponibles aquí: Vaya a TSL Demos raquo TODAS LAS ESTRATEGIAS DE TSL SON COMPLETAMENTE DIVULGADAS EN CÓDIGO ABIERTO. QUIERE LEER UN LIBRO SOBRE EL PROGRAMA GENÉTICO DE LA TSL Frank Francone es coautor del libro de texto de la universidad Genetic Programming: An Introduction (La serie de Morgan Kaufman en Inteligencia Artificial). TSL tiene varios proyectos HFT en marcha en varios servidores colocados cerca de los motores de intercambio coincidentes. Las estrategias diseñadas por la máquina de TSL pueden desplegarse en los datos basados ​​en el libro de pedidos o en las barras secundarias. Consulte Demostración 50. Póngase en contacto con TSL para obtener información adicional. Usando OneMarketData, TSL puede diseñar automáticamente estrategias de negociación de alta frecuencia. La demostración 50 muestra un ejemplo usando granularidad de 250 milisegundos. Libro de órdenes Datos creados usando OneMarketDatas OneTick Complex Aggregator Book Book. TSL es un autodesigner estocástico, evolutivo, multirun, estrategia de negociación que produce y exporta el código portable en una variedad de idiomas. Este es un completo extremo a extremo de la plataforma de diseño del sistema de comercio y se autodesign sistemas de comercio de alta frecuencia, comercio de día, EOD, pares, carteras y sistemas de comercio de opciones en pocos minutos sin programación. Ver Tesis, Libros Blancos, Presentaciones PPT y otra documentación bajo el Enlace de Literatura a la izquierda. Vea las demostraciones Flash a la izquierda para una información completa sobre esta nueva tecnología. La Plataforma TSL produce máquinas diseñadas, estrategias de negociación a tasas muy altas gracias a las evaluaciones de nivel de registro. Ninguna otra plataforma de desarrollo de estrategia comercial en el mercado proporciona este nivel de poder. El programa genético de LAIMGP dentro de TSL es uno de los algoritmos más potentes disponibles hoy en día y opera a velocidades mucho más rápidas que los algoritmos competidores. Con TSL, los sistemas de comercio y el código están escritos para usted en idiomas como C, JAVA, Ensamblador, EasyLanguage y otros a través de traductores. Frank Francone, Presidente de RML Technologies, Inc. ha preparado una demostración flash titulada Programación Genética para Modelado Predictivo. RML produce el motor de programación genética de Discipulus que se utiliza dentro de TSL. Este tutorial es una excelente manera de aprender acerca de Discipulus y proporcionará una base para su comprensión continua de TSLs Auto-Design de Trading System Paradigm Shift. TSL simplifica la importación de datos, el preprocesamiento y el diseño de sistemas de negociación utilizando el rendimiento del sistema de negociación como aptitud. Asegúrese de ver las demostraciones de TSL como la plataforma TSL está específicamente dirigida para el diseño del sistema de comercio. Descargue el tutorial de Discipulus raquo La tecnología utilizada en Trading System Lab es 60 a 200 veces más rápida que otros algoritmos. Ver Libros Blancos sobre los estudios de velocidad en SAIC aquí: Ir a los Libros Blancos raquo Teléfono: 1-408-356-1800 e-mail: (protegido) El mejor lenguaje de programación para Algorithmic Trading Systems Una de las preguntas más frecuentes que recibo en el QS mailbag Cuál es el mejor lenguaje de programación para el comercio algorítmico. La respuesta corta es que no hay mejor lenguaje. Los parámetros de la estrategia, el rendimiento, la modularidad, el desarrollo, la resiliencia y el costo deben ser considerados. Este artículo describirá los componentes necesarios de una arquitectura algorítmica de sistemas de comercio y cómo las decisiones relativas a la implementación afectan la elección del lenguaje. En primer lugar, se considerarán los componentes principales de un sistema de negociación algorítmica, como las herramientas de investigación, el optimizador de cartera, el gestor de riesgos y el motor de ejecución. Posteriormente, se examinarán diferentes estrategias comerciales y cómo afectarán el diseño del sistema. En particular, se discutirá la frecuencia de las operaciones y el probable volumen de negociación. Una vez que se ha seleccionado la estrategia de negociación, es necesario diseñar todo el sistema. Esto incluye la elección del hardware, el sistema operativo y la resiliencia del sistema frente a eventos raros y potencialmente catastróficos. Mientras se está considerando la arquitectura, se debe tener en cuenta el desempeño - tanto en las herramientas de investigación como en el entorno de ejecución en vivo. ¿Qué es el sistema de comercio que trata de hacer Antes de decidir sobre el mejor idioma con el que escribir un sistema de comercio automatizado es necesario definir los requisitos. ¿El sistema va a ser puramente basado en la ejecución? El sistema requerirá una gestión de riesgos o un módulo de construcción de cartera. El sistema requerirá un backtestter de alto rendimiento. Para la mayoría de las estrategias el sistema de negociación puede dividirse en dos categorías: Investigación y generación de señales. La investigación se ocupa de la evaluación del desempeño de una estrategia con respecto a los datos históricos. El proceso de evaluación de una estrategia de negociación sobre los datos de mercado anteriores se conoce como backtesting. El tamaño de los datos y la complejidad algorítmica tendrán un gran impacto en la intensidad computacional del backtester. La velocidad de la CPU y la concurrencia son a menudo los factores limitantes en la optimización de la velocidad de ejecución de la investigación. Generación de señal se refiere a la generación de un conjunto de señales comerciales de un algoritmo y el envío de estos pedidos al mercado, generalmente a través de una correduría. Para ciertas estrategias se requiere un alto nivel de rendimiento. Los problemas de E / S, como el ancho de banda de la red y la latencia, son a menudo el factor limitante en la optimización de los sistemas de ejecución. Por lo tanto, la elección de lenguajes para cada componente de todo el sistema puede ser muy diferente. Tipo, frecuencia y volumen de la estrategia El tipo de estrategia algorítmica empleada tendrá un impacto sustancial en el diseño del sistema. Será necesario considerar los mercados que se negocian, la conectividad con los proveedores de datos externos, la frecuencia y el volumen de la estrategia, el equilibrio entre la facilidad de desarrollo y la optimización del rendimiento, así como cualquier hardware personalizado, Servidores, GPUs o FPGAs que puedan ser necesarios. Las opciones tecnológicas para una estrategia de renta variable de baja frecuencia en los Estados Unidos serán muy diferentes de las de una estrategia de arbitraje estadístico de alta frecuencia que se negocia en el mercado de futuros. Antes de la elección del idioma muchos proveedores de datos deben ser evaluados que pertenecen a la estrategia de la mano. Será necesario considerar la conectividad con el proveedor, la estructura de cualquier API, la puntualidad de los datos, los requisitos de almacenamiento y la resiliencia frente a un vendedor que se desconecta. También es aconsejable poseer acceso rápido a múltiples vendedores. Varios instrumentos tienen sus propias peculiaridades de almacenamiento, ejemplos de los cuales incluyen múltiples símbolos ticker para las acciones y fechas de vencimiento para futuros (sin mencionar ningún dato OTC específico). Esto debe ser factorizado en el diseño de la plataforma. Frecuencia de la estrategia es probable que sea uno de los mayores impulsores de cómo la pila de tecnología se definirá. Las estrategias que emplean datos con más frecuencia que las barras minuciosas o secundarias requieren una consideración significativa con respecto al desempeño. Una estrategia que excede las barras secundarias (es decir, los datos de la señal) conduce a un diseño impulsado por el rendimiento como requisito primario. En el caso de las estrategias de alta frecuencia, será necesario almacenar y evaluar una cantidad sustancial de datos de mercado. El software tal como HDF5 o kdb se utiliza comúnmente para estas funciones. Con el fin de procesar los volúmenes extensos de datos necesarios para las aplicaciones de HFT, un sistema de backtester y de ejecución ampliamente optimizado debe ser utilizado. C / C (posiblemente con algún ensamblador) es probable que el candidato de idioma más fuerte. Las estrategias de frecuencia ultra-alta casi seguramente requerirán hardware personalizado como FPGAs, intercambio de co-location y kernal / network tuning. Sistemas de investigación Los sistemas de investigación suelen implicar una mezcla de desarrollo interactivo y secuencias de comandos automatizadas. El primero a menudo tiene lugar dentro de un IDE como Visual Studio, MatLab o R Studio. Este último implica cálculos numéricos extensos sobre numerosos parámetros y puntos de datos. Esto conduce a una elección de idioma que proporciona un entorno sencillo para probar el código, pero también proporciona un rendimiento suficiente para evaluar estrategias sobre múltiples dimensiones de parámetros. Los IDE típicos en este espacio incluyen Microsoft Visual C / C, que contiene extensas utilidades de depuración, capacidades de finalización de código (a través de Intellisense) y visiones generales directas de toda la pila de proyectos (a través de la base de datos ORM, LINQ) MatLab. Que está diseñado para el álgebra lineal numérica extensa y operaciones vectorizadas, pero en una forma de consola interactiva R Studio. which wraps the R statistical language console in a fully-fledged IDE Eclipse IDE for Linux Java and C and semi-proprietary IDEs such as Enthought Canopy for Python, which include data analysis libraries such as NumPy. SciPy. scikit-learn and pandas in a single interactive (console) environment. For numerical backtesting, all of the above languages are suitable, although it is not necessary to utilise a GUI/IDE as the code will be executed in the background. The prime consideration at this stage is that of execution speed. A compiled language (such as C) is often useful if the backtesting parameter dimensions are large. Remember that it is necessary to be wary of such systems if that is the case Interpreted languages such as Python often make use of high-performance libraries such as NumPy/pandas for the backtesting step, in order to maintain a reasonable degree of competitiveness with compiled equivalents. Ultimately the language chosen for the backtesting will be determined by specific algorithmic needs as well as the range of libraries available in the language (more on that below). However, the language used for the backtester and research environments can be completely independent of those used in the portfolio construction, risk management and execution components, as will be seen. Portfolio Construction and Risk Management The portfolio construction and risk management components are often overlooked by retail algorithmic traders. This is almost always a mistake. These tools provide the mechanism by which capital will be preserved. They not only attempt to alleviate the number of risky bets, but also minimise churn of the trades themselves, reducing transaction costs. Sophisticated versions of these components can have a significant effect on the quality and consistentcy of profitability. It is straightforward to create a stable of strategies as the portfolio construction mechanism and risk manager can easily be modified to handle multiple systems. Thus they should be considered essential components at the outset of the design of an algorithmic trading system. The job of the portfolio construction system is to take a set of desired trades and produce the set of actual trades that minimise churn, maintain exposures to various factors (such as sectors, asset classes, volatility etc) and optimise the allocation of capital to various strategies in a portfolio. Portfolio construction often reduces to a linear algebra problem (such as a matrix factorisation) and hence performance is highly dependent upon the effectiveness of the numerical linear algebra implementation available. Common libraries include uBLAS. LAPACK and NAG for C. MatLab also possesses extensively optimised matrix operations. Python utilises NumPy/SciPy for such computations. A frequently rebalanced portfolio will require a compiled (and well optimised) matrix library to carry this step out, so as not to bottleneck the trading system. Risk management is another extremely important part of an algorithmic trading system. Risk can come in many forms: Increased volatility (although this may be seen as desirable for certain strategies), increased correlations between asset classes, counter-party default, server outages, black swan events and undetected bugs in the trading code, to name a few. Risk management components try and anticipate the effects of excessive volatility and correlation between asset classes and their subsequent effect(s) on trading capital. Often this reduces to a set of statistical computations such as Monte Carlo stress tests. This is very similar to the computational needs of a derivatives pricing engine and as such will be CPU-bound. These simulations are highly parallelisable (see below) and, to a certain degree, it is possible to throw hardware at the problem. Execution Systems The job of the execution system is to receive filtered trading signals from the portfolio construction and risk management components and send them on to a brokerage or other means of market access. For the majority of retail algorithmic trading strategies this involves an API or FIX connection to a brokerage such as Interactive Brokers. The primary considerations when deciding upon a language include quality of the API, language-wrapper availability for an API, execution frequency and the anticipated slippage. The quality of the API refers to how well documented it is, what sort of performance it provides, whether it needs standalone software to be accessed or whether a gateway can be established in a headless fashion (i. e. no GUI). In the case of Interactive Brokers, the Trader WorkStation tool needs to be running in a GUI environment in order to access their API. I once had to install a Desktop Ubuntu edition onto an Amazon cloud server to access Interactive Brokers remotely, purely for this reason Most APIs will provide a C and/or Java interface. It is usually up to the community to develop language-specific wrappers for C, Python, R, Excel and MatLab. Note that with every additional plugin utilised (especially API wrappers) there is scope for bugs to creep into the system. Always test plugins of this sort and ensure they are actively maintained. A worthwhile gauge is to see how many new updates to a codebase have been made in recent months. Execution frequency is of the utmost importance in the execution algorithm. Note that hundreds of orders may be sent every minute and as such performance is critical. Slippage will be incurred through a badly-performing execution system and this will have a dramatic impact on profitability. Statically-typed languages (see below) such as C/Java are generally optimal for execution but there is a trade-off in development time, testing and ease of maintenance. Dynamically-typed languages, such as Python and Perl are now generally fast enough. Always make sure the components are designed in a modular fashion (see below) so that they can be swapped out out as the system scales. Architectural Planning and Development Process The components of a trading system, its frequency and volume requirements have been discussed above, but system infrastructure has yet to be covered. Those acting as a retail trader or working in a small fund will likely be wearing many hats. It will be necessary to be covering the alpha model, risk management and execution parameters, and also the final implementation of the system. Before delving into specific languages the design of an optimal system architecture will be discussed. Separation of Concerns One of the most important decisions that must be made at the outset is how to separate the concerns of a trading system. In software development, this essentially means how to break up the different aspects of the trading system into separate modular components. By exposing interfaces at each of the components it is easy to swap out parts of the system for other versions that aid performance, reliability or maintenance, without modifying any external dependency code. This is the best practice for such systems. For strategies at lower frequencies such practices are advised. For ultra high frequency trading the rulebook might have to be ignored at the expense of tweaking the system for even more performance. A more tightly coupled system may be desirable. Creating a component map of an algorithmic trading system is worth an article in itself. However, an optimal approach is to make sure there are separate components for the historical and real-time market data inputs, data storage, data access API, backtester, strategy parameters, portfolio construction, risk management and automated execution systems. For instance, if the data store being used is currently underperforming, even at significant levels of optimisation, it can be swapped out with minimal rewrites to the data ingestion or data access API. As far the as the backtester and subsequent components are concerned, there is no difference. Another benefit of separated components is that it allows a variety of programming languages to be used in the overall system. There is no need to be restricted to a single language if the communication method of the components is language independent. This will be the case if they are communicating via TCP/IP, ZeroMQ or some other language-independent protocol. As a concrete example, consider the case of a backtesting system being written in C for number crunching performance, while the portfolio manager and execution systems are written in Python using SciPy and IBPy . Performance Considerations Performance is a significant consideration for most trading strategies. For higher frequency strategies it is the most important factor. Performance covers a wide range of issues, such as algorithmic execution speed, network latency, bandwidth, data I/O, concurrency/parallelism and scaling. Each of these areas are individually covered by large textbooks, so this article will only scratch the surface of each topic. Architecture and language choice will now be discussed in terms of their effects on performance. The prevailing wisdom as stated by Donald Knuth. one of the fathers of Computer Science, is that premature optimisation is the root of all evil. This is almost always the case - except when building a high frequency trading algorithm For those who are interested in lower frequency strategies, a common approach is to build a system in the simplest way possible and only optimise as bottlenecks begin to appear. Profiling tools are used to determine where bottlenecks arise. Profiles can be made for all of the factors listed above, either in a MS Windows or Linux environment. There are many operating system and language tools available to do so, as well as third party utilities. Language choice will now be discussed in the context of performance. C, Java, Python, R and MatLab all contain high-performance libraries (either as part of their standard or externally) for basic data structure and algorithmic work. C ships with the Standard Template Library, while Python contains NumPy/SciPy. Common mathematical tasks are to be found in these libraries and it is rarely beneficial to write a new implementation. One exception is if highly customised hardware architecture is required and an algorithm is making extensive use of proprietary extensions (such as custom caches). However, often reinvention of the wheel wastes time that could be better spent developing and optimising other parts of the trading infrastructure. Development time is extremely precious especially in the context of sole developers. Latency is often an issue of the execution system as the research tools are usually situated on the same machine. For the former, latency can occur at multiple points along the execution path. Databases must be consulted (disk/network latency), signals must be generated (operating syste, kernal messaging latency), trade signals sent (NIC latency) and orders processed (exchange systems internal latency). For higher frequency operations it is necessary to become intimately familiar with kernal optimisation as well as optimisation of network transmission. This is a deep area and is significantly beyond the scope of the article but if an UHFT algorithm is desired then be aware of the depth of knowledge required Caching is very useful in the toolkit of a quantitative trading developer. Caching refers to the concept of storing frequently accessed data in a manner which allows higher-performance access, at the expense of potential staleness of the data. A common use case occurs in web development when taking data from a disk-backed relational database and putting it into memory. Any subsequent requests for the data do not have to hit the database and so performance gains can be significant. For trading situations caching can be extremely beneficial. For instance, the current state of a strategy portfolio can be stored in a cache until it is rebalanced, such that the list doesnt need to be regenerated upon each loop of the trading algorithm. Such regeneration is likely to be a high CPU or disk I/O operation. However, caching is not without its own issues. Regeneration of cache data all at once, due to the volatilie nature of cache storage, can place significant demand on infrastructure. Another issue is dog-piling . where multiple generations of a new cache copy are carried out under extremely high load, which leads to cascade failure. Dynamic memory allocation is an expensive operation in software execution. Thus it is imperative for higher performance trading applications to be well-aware how memory is being allocated and deallocated during program flow. Newer language standards such as Java, C and Python all perform automatic garbage collection . which refers to deallocation of dynamically allocated memory when objects go out of scope . Garbage collection is extremely useful during development as it reduces errors and aids readability. However, it is often sub-optimal for certain high frequency trading strategies. Custom garbage collection is often desired for these cases. In Java, for instance, by tuning the garbage collector and heap configuration, it is possible to obtain high performance for HFT strategies. C doesnt provide a native garbage collector and so it is necessary to handle all memory allocation/deallocation as part of an objects implementation. While potentially error prone (potentially leading to dangling pointers) it is extremely useful to have fine-grained control of how objects appear on the heap for certain applications. When choosing a language make sure to study how the garbage collector works and whether it can be modified to optimise for a particular use case. Many operations in algorithmic trading systems are amenable to parallelisation . This refers to the concept of carrying out multiple programmatic operations at the same time, i. e in parallel. So-called embarassingly parallel algorithms include steps that can be computed fully independently of other steps. Certain statistical operations, such as Monte Carlo simulations, are a good example of embarassingly parallel algorithms as each random draw and subsequent path operation can be computed without knowledge of other paths. Other algorithms are only partially parallelisable. Fluid dynamics simulations are such an example, where the domain of computation can be subdivided, but ultimately these domains must communicate with each other and thus the operations are partially sequential. Parallelisable algorithms are subject to Amdahls Law. which provides a theoretical upper limit to the performance increase of a parallelised algorithm when subject to N separate processes (e. g. on a CPU core or thread ). Parallelisation has become increasingly important as a means of optimisation since processor clock-speeds have stagnated, as newer processors contain many cores with which to perform parallel calculations. The rise of consumer graphics hardware (predominently for video games) has lead to the development of Graphical Processing Units (GPUs), which contain hundreds of cores for highly concurrent operations. Such GPUs are now very affordable. High-level frameworks, such as Nvidias CUDA have lead to widespread adoption in academia and finance. Such GPU hardware is generally only suitable for the research aspect of quantitative finance, whereas other more specialised hardware (including Field-Programmable Gate Arrays - FPGAs) are used for (U)HFT. Nowadays, most modern langauges support a degree of concurrency/multithreading. Thus it is straightforward to optimise a backtester, since all calculations are generally independent of the others. Scaling in software engineering and operations refers to the ability of the system to handle consistently increasing loads in the form of greater requests, higher processor usage and more memory allocation. In algorithmic trading a strategy is able to scale if it can accept larger quantities of capital and still produce consistent returns. The trading technology stack scales if it can endure larger trade volumes and increased latency, without bottlenecking . While systems must be designed to scale, it is often hard to predict beforehand where a bottleneck will occur. Rigourous logging, testing, profiling and monitoring will aid greatly in allowing a system to scale. Languages themselves are often described as unscalable. This is usually the result of misinformation, rather than hard fact. It is the total technology stack that should be ascertained for scalability, not the language. Clearly certain languages have greater performance than others in particular use cases, but one language is never better than another in every sense. One means of managing scale is to separate concerns, as stated above. In order to further introduce the ability to handle spikes in the system (i. e. sudden volatility which triggers a raft of trades), it is useful to create a message queuing architecture. This simply means placing a message queue system between components so that orders are stacked up if a certain component is unable to process many requests. Rather than requests being lost they are simply kept in a stack until the message is handled. This is particularly useful for sending trades to an execution engine. If the engine is suffering under heavy latency then it will back up trades. A queue between the trade signal generator and the execution API will alleviate this issue at the expense of potential trade slippage. A well-respected open source message queue broker is RabbitMQ . Hardware and Operating Systems The hardware running your strategy can have a significant impact on the profitability of your algorithm. This is not an issue restricted to high frequency traders either. A poor choice in hardware and operating system can lead to a machine crash or reboot at the most inopportune moment. Thus it is necessary to consider where your application will reside. The choice is generally between a personal desktop machine, a remote server, a cloud provider or an exchange co-located server. Desktop machines are simple to install and administer, especially with newer user friendly operating systems such as Windows 7/8, Mac OSX and Ubuntu. Desktop systems do possess some significant drawbacks, however. The foremost is that the versions of operating systems designed for desktop machines are likely to require reboots/patching (and often at the worst of times). They also use up more computational resources by the virtue of requiring a graphical user interface (GUI). Utilising hardware in a home (or local office) environment can lead to internet connectivity and power uptime problems. The main benefit of a desktop system is that significant computational horsepower can be purchased for the fraction of the cost of a remote dedicated server (or cloud based system) of comparable speed. A dedicated server or cloud-based machine, while often more expensive than a desktop option, allows for more significant redundancy infrastructure, such as automated data backups, the ability to more straightforwardly ensure uptime and remote monitoring. They are harder to administer since they require the ability to use remote login capabilities of the operating system. In Windows this is generally via the GUI Remote Desktop Protocol (RDP). In Unix-based systems the command-line Secure SHell (SSH) is used. Unix-based server infrastructure is almost always command-line based which immediately renders GUI-based programming tools (such as MatLab or Excel) to be unusable. A co-located server, as the phrase is used in the capital markets, is simply a dedicated server that resides within an exchange in order to reduce latency of the trading algorithm. This is absolutely necessary for certain high frequency trading strategies, which rely on low latency in order to generate alpha. The final aspect to hardware choice and the choice of programming language is platform-independence. Is there a need for the code to run across multiple different operating systems Is the code designed to be run on a particular type of processor architecture, such as the Intel x86/x64 or will it be possible to execute on RISC processors such as those manufactured by ARM These issues will be highly dependent upon the frequency and type of strategy being implemented. Resilience and Testing One of the best ways to lose a lot of money on algorithmic trading is to create a system with no resiliency . This refers to the durability of the sytem when subject to rare events, such as brokerage bankruptcies, sudden excess volatility, region-wide downtime for a cloud server provider or the accidental deletion of an entire trading database. Years of profits can be eliminated within seconds with a poorly-designed architecture. It is absolutely essential to consider issues such as debuggng, testing, logging, backups, high-availability and monitoring as core components of your system. It is likely that in any reasonably complicated custom quantitative trading application at least 50 of development time will be spent on debugging, testing and maintenance. Nearly all programming languages either ship with an associated debugger or possess well-respected third-party alternatives. In essence, a debugger allows execution of a program with insertion of arbitrary break points in the code path, which temporarily halt execution in order to investigate the state of the system. The main benefit of debugging is that it is possible to investigate the behaviour of code prior to a known crash point . Debugging is an essential component in the toolbox for analysing programming errors. However, they are more widely used in compiled languages such as C or Java, as interpreted languages such as Python are often easier to debug due to fewer LOC and less verbose statements. Despite this tendency Python does ship with the pdb. which is a sophisticated debugging tool. The Microsoft Visual C IDE possesses extensive GUI debugging utilities, while for the command line Linux C programmer, the gdb debugger exists. Testing in software development refers to the process of applying known parameters and results to specific functions, methods and objects within a codebase, in order to simulate behaviour and evaluate multiple code-paths, helping to ensure that a system behaves as it should. A more recent paradigm is known as Test Driven Development (TDD), where test code is developed against a specified interface with no implementation. Prior to the completion of the actual codebase all tests will fail. As code is written to fill in the blanks, the tests will eventually all pass, at which point development should cease. TDD requires extensive upfront specification design as well as a healthy degree of discipline in order to carry out successfully. In C, Boost provides a unit testing framework. In Java, the JUnit library exists to fulfill the same purpose. Python also has the unittest module as part of the standard library. Many other languages possess unit testing frameworks and often there are multiple options. In a production environment, sophisticated logging is absolutely essential. Logging refers to the process of outputting messages, with various degrees of severity, regarding execution behaviour of a system to a flat file or database. Logs are a first line of attack when hunting for unexpected program runtime behaviour. Unfortunately the shortcomings of a logging system tend only to be discovered after the fact As with backups discussed below, a logging system should be given due consideration BEFORE a system is designed. Both Microsoft Windows and Linux come with extensive system logging capability and programming languages tend to ship with standard logging libraries that cover most use cases. It is often wise to centralise logging information in order to analyse it at a later date, since it can often lead to ideas about improving performance or error reduction, which will almost certainly have a positive impact on your trading returns. While logging of a system will provide information about what has transpired in the past, monitoring of an application will provide insight into what is happening right now . All aspects of the system should be considered for monitoring. System level metrics such as disk usage, available memory, network bandwidth and CPU usage provide basic load information. Trading metrics such as abnormal prices/volume, sudden rapid drawdowns and account exposure for different sectors/markets should also be continuously monitored. Further, a threshold system should be instigated that provides notification when certain metrics are breached, elevating the notification method (email, SMS, automated phone call) depending upon the severity of the metric. System monitoring is often the domain of the system administrator or operations manager. However, as a sole trading developer, these metrics must be established as part of the larger design. Many solutions for monitoring exist: proprietary, hosted and open source, which allow extensive customisation of metrics for a particular use case. Backups and high availability should be prime concerns of a trading system. Consider the following two questions: 1) If an entire production database of market data and trading history was deleted (without backups) how would the research and execution algorithm be affected 2) If the trading system suffers an outage for an extended period (with open positions) how would account equity and ongoing profitability be affected The answers to both of these questions are often sobering It is imperative to put in place a system for backing up data and also for testing the restoration of such data. Many individuals do not test a restore strategy. If recovery from a crash has not been tested in a safe environment, what guarantees exist that restoration will be available at the worst possible moment Similarly, high availability needs to be baked in from the start. Redundant infrastructure (even at additional expense) must always be considered, as the cost of downtime is likely to far outweigh the ongoing maintenance cost of such systems. I wont delve too deeply into this topic as it is a large area, but make sure it is one of the first considerations given to your trading system. Choosing a Language Considerable detail has now been provided on the various factors that arise when developing a custom high-performance algorithmic trading system. The next stage is to discuss how programming languages are generally categorised. Type Systems When choosing a language for a trading stack it is necessary to consider the type system . The languages which are of interest for algorithmic trading are either statically - or dynamically-typed . A statically-typed language performs checks of the types (e. g. integers, floats, custom classes etc) during the compilation process. Such languages include C and Java. A dynamically-typed language performs the majority of its type-checking at runtime. Such languages include Python, Perl and JavaScript. For a highly numerical system such as an algorithmic trading engine, type-checking at compile time can be extremely beneficial, as it can eliminate many bugs that would otherwise lead to numerical errors. However, type-checking doesnt catch everything, and this is where exception handling comes in due to the necessity of having to handle unexpected operations. Dynamic languages (i. e. those that are dynamically-typed) can often lead to run-time errors that would otherwise be caught with a compilation-time type-check. For this reason, the concept of TDD (see above) and unit testing arose which, when carried out correctly, often provides more safety than compile-time checking alone. Another benefit of statically-typed languages is that the compiler is able to make many optimisations that are otherwise unavailable to the dynamically - typed language, simply because the type (and thus memory requirements) are known at compile-time. In fact, part of the inefficiency of many dynamically-typed languages stems from the fact that certain objects must be type-inspected at run-time and this carries a performance hit. Libraries for dynamic languages, such as NumPy/SciPy alleviate this issue due to enforcing a type within arrays. Open Source or Proprietary One of the biggest choices available to an algorithmic trading developer is whether to use proprietary (commercial) or open source technologies. There are advantages and disadvantages to both approaches. It is necessary to consider how well a language is supported, the activity of the community surrounding a language, ease of installation and maintenance, quality of the documentation and any licensing/maintenance costs. The Microsoft. NET stack (including Visual C, Visual C) and MathWorks MatLab are two of the larger proprietary choices for developing custom algorithmic trading software. Both tools have had significant battle testing in the financial space, with the former making up the predominant software stack for investment banking trading infrastructure and the latter being heavily used for quantitative trading research within investment funds. Microsoft and MathWorks both provide extensive high quality documentation for their products. Further, the communities surrounding each tool are very large with active web forums for both. The. NET software allows cohesive integration with multiple languages such as C, C and VB, as well as easy linkage to other Microsoft products such as the SQL Server database via LINQ. MatLab also has many plugins/libraries (some free, some commercial) for nearly any quantitative research domain. There are also drawbacks. With either piece of software the costs are not insignificant for a lone trader (although Microsoft does provide entry-level version of Visual Studio for free). Microsoft tools play well with each other, but integrate less well with external code. Visual Studio must also be executed on Microsoft Windows, which is arguably far less performant than an equivalent Linux server which is optimally tuned. MatLab also lacks a few key plugins such as a good wrapper around the Interactive Brokers API, one of the few brokers amenable to high-performance algorithmic trading. The main issue with proprietary products is the lack of availability of the source code. This means that if ultra performance is truly required, both of these tools will be far less attractive. Open source tools have been industry grade for sometime. Much of the alternative asset space makes extensive use of open-source Linux, MySQL/PostgreSQL, Python, R, C and Java in high-performance production roles. However, they are far from restricted to this domain. Python and R, in particular, contain a wealth of extensive numerical libraries for performing nearly any type of data analysis imaginable, often at execution speeds comparable to compiled languages, with certain caveats. The main benefit of using interpreted languages is the speed of development time. Python and R require far fewer lines of code (LOC) to achieve similar functionality, principally due to the extensive libraries. Further, they often allow interactive console based development, rapidly reducing the iterative development process. Given that time as a developer is extremely valuable, and execution speed often less so (unless in the HFT space), it is worth giving extensive consideration to an open source technology stack. Python and R possess significant development communities and are extremely well supported, due to their popularity. Documentation is excellent and bugs (at least for core libraries) remain scarce. Open source tools often suffer from a lack of a dedicated commercial support contract and run optimally on systems with less-forgiving user interfaces. A typical Linux server (such as Ubuntu) will often be fully command-line oriented. In addition, Python and R can be slow for certain execution tasks. There are mechanisms for integrating with C in order to improve execution speeds, but it requires some experience in multi-language programming. While proprietary software is not immune from dependency/versioning issues it is far less common to have to deal with incorrect library versions in such environments. Open source operating systems such as Linux can be trickier to administer. I will venture my personal opinion here and state that I build all of my trading tools with open source technologies. In particular I use: Ubuntu, MySQL, Python, C and R. The maturity, community size, ability to dig deep if problems occur and lower total cost ownership (TCO) far outweigh the simplicity of proprietary GUIs and easier installations. Having said that, Microsoft Visual Studio (especially for C) is a fantastic Integrated Development Environment (IDE) which I would also highly recommend. Batteries Included The header of this section refers to the out of the box capabilities of the language - what libraries does it contain and how good are they This is where mature languages have an advantage over newer variants. C, Java and Python all now possess extensive libraries for network programming, HTTP, operating system interaction, GUIs, regular expressions (regex), iteration and basic algorithms. C is famed for its Standard Template Library (STL) which contains a wealth of high performance data structures and algorithms for free. Python is known for being able to communicate with nearly any other type of system/protocol (especially the web), mostly through its own standard library. R has a wealth of statistical and econometric tools built in, while MatLab is extremely optimised for any numerical linear algebra code (which can be found in portfolio optimisation and derivatives pricing, for instance). Outside of the standard libraries, C makes use of the Boost library, which fills in the missing parts of the standard library. In fact, many parts of Boost made it into the TR1 standard and subsequently are available in the C11 spec, including native support for lambda expressions and concurrency. Python has the high performance NumPy/SciPy/Pandas data analysis library combination, which has gained widespread acceptance for algorithmic trading research. Further, high-performance plugins exist for access to the main relational databases, such as MySQL (MySQL/C), JDBC (Java/MatLab), MySQLdb (MySQL/Python) and psychopg2 (PostgreSQL/Python). Python can even communicate with R via the RPy plugin An often overlooked aspect of a trading system while in the initial research and design stage is the connectivity to a broker API. Most APIs natively support C and Java, but some also support C and Python, either directly or with community-provided wrapper code to the C APIs. In particular, Interactive Brokers can be connected to via the IBPy plugin. If high-performance is required, brokerages will support the FIX protocol . Conclusion As is now evident, the choice of programming language(s) for an algorithmic trading system is not straightforward and requires deep thought. The main considerations are performance, ease of development, resiliency and testing, separation of concerns, familiarity, maintenance, source code availability, licensing costs and maturity of libraries. The benefit of a separated architecture is that it allows languages to be plugged in for different aspects of a trading stack, as and when requirements change. A trading system is an evolving tool and it is likely that any language choices will evolve along with it.

Comments