Sunday 14 May 2017

Electronic Trading System Architecture


Sistema de comércio eletrônico aberto por Aarno Lehtola, Tor Lillqvist, Kari Kekki e Seija Hakkarainen Os sistemas de negociação computadorizados variam de simples sistemas de compras orientados para o consumidor para aqueles que implementam protocolos de negociação multifásis complicados para o comércio entre empresas. O sistema Open Electronic Trading (OET) aborda as necessidades da última categoria, combinando técnicas de fluxo de trabalho com mensagens EDIFACT interorganizacionais. O sistema OET é desenvolvido para os mercados de contratos públicos a nível europeu, aumentando anualmente para 800 mil milhões de ecus com 10 milhões de compradores e 16 milhões de unidades de organização de fornecedores. Atualmente, o comércio envolve uma enorme quantidade de trabalho administrativo, e os custos de tratamento de pedidos são estimados em 5 a 10 das despesas gerais. O sistema OET informa os processos comerciais e ajuda a economizar os custos de manipulação. Baseia-se em padrões abertos e suporta vários ambientes operacionais. O multilinguismo é uma das suas características. O sistema OET está sendo desenvolvido pelo Grupo Tieto e tecnologia de informação VTT no projeto TAPPE da CE. Atualmente, a área de contratos públicos na Europa sofre ainda de concorrência internacional mínima, sistemas administrativos inadequados para usuários, disponibilidade inadequada e uso de especificações de produtos e uso mínimo de tecnologia de informação e comunicação a nível regional, nacional e europeu. O objetivo do projeto TAPPE (projeto AD1015 do Programa de Aplicações Telemáticas da CE) é apoiar a construção de uma infra-estrutura europeia comum para contratos públicos através da introdução de soluções de software para trocar eletronicamente todas as informações necessárias entre os parceiros de negócios que colaboraram, Para simplificar os procedimentos de compra, abrir os mercados através das fronteiras regionais e nacionais e restringir as organizações de usuários a seguir as regras e regulamentos acordados. Os resultados do TAPPE abrangerão todas as principais fases do processo de aquisição total. Ele produzirá os seguintes softwares e aplicações de telecomunicações: ferramenta de suporte à decisão para ajudar os usuários a gerenciar os procedimentos e procedimentos de aquisição ferramenta de suporte à decisão para avaliar fornecedores e ofertas de intercâmbio de dados aplicativo para anunciar e licenciar sistema de tratamento de contrato computadorizado aberto sistema de comércio eletrônico para gerenciar e monitorar compras Processos de fluxo de trabalho relacionados. Tieto Group e VTT Information Technology estão desenvolvendo o sistema Open Electronic Trading (OET) como parte do projeto TAPPE. Ele lida com os diferentes estágios dentro de uma transação comercial determinada em uma situação em que o vendedor e o comprador já se identificaram, e têm uma relação comercial comum baseada em contrato. As principais características técnicas do sistema OET são descritas a seguir. Dentro dos limites organizacionais, o sistema OET aplica o paradigma da intranet e o protocolo HTTP que fornece interfaces de usuário via navegadores WWW padrão para os programas do servidor (veja a Figura 1). A comunicação interorganizacional dos fluxos de trabalho de vendedores e compradores é realizada usando mensagens EDIFACT UNTDID Versão D93.A para comércio eletrônico. Definições de mensagens detalhadas são fornecidas para o sistema usando o formato de descrição da mensagem DIRDEF da UN. A comunicação de dados pode usar protocolos existentes como FTP, SSH, SMTP ou X.400. O uso do sistema dentro das intranets é protegido do mundo exterior pelo firewall das organizações. As mensagens interorganizacionais são protegidas usando, por exemplo, o programa PGP. A maioria das partes do sistema OET foi implementada usando linguagem Java para maximizar sua portabilidade. Figura 1: A interface de controle do fluxo de trabalho e uma das formas eletrônicas do sistema de negociação. Do ponto de vista do usuário, o componente central do sistema é a ferramenta de controle de fluxo de trabalho, que mantém listas de ação para usuários. As ações muitas vezes envolvem o tratamento de alguma forma eletrônica. O usuário também pode procurar registros de status e registros dessas instâncias de processo de fluxo de trabalho onde ele está participando. O sistema orienta o usuário a acessar o formulário WWW direito e controla que a entrada do usuário atende as restrições de integridade definidas para o formulário. Os formulários oferecidos pelo sistema são especialmente concebidos para as diferentes funções dos usuários nos processos administrativos. Os formulários são as interfaces básicas através das quais um usuário final participa em processos de negociação. Para as mensagens EDIFACT de negociação usadas, criamos formulários WWW. A funcionalidade extra foi programada nos formulários usando a linguagem Java. Por exemplo, o acesso ao banco de dados pode ser facilmente adicionado aos formulários usando interfaces Java e ODBC ou JDBC. A arquitetura do programa dentro dos formulários eletrônicos oferece suporte à multilinguagem. A idéia básica por trás dos sistemas de fluxo de trabalho é que uma organização pode ser vista para executar processos de gerenciamento de informações. Cada instância de um processo de um determinado tipo é por estrutura idêntica ou bastante semelhante a outra instância (por exemplo, um processo de processamento de pedidos). A segunda e nova idéia por trás de um sistema de fluxo de trabalho, é que os tipos de processo são descritos em uma forma que permite a automação e controle de processos. A terceira idéia importante é que as informações a serem tratadas durante o processo podem ser combinadas nas instâncias do processo computadorizado (por exemplo, formas eletrônicas). A quarta idéia importante por trás de um sistema de fluxo de trabalho é que esse sistema pode ser usado para a coordenação do trabalho em uma organização descentralizada (ou seja, cola do sistema). Uma especificação ou definição de fluxo de trabalho é a representação do tipo do processo, que consiste em atividades (tarefas, etapas) e suas relações (dependências como transições), ao longo dos tipos de dados manipulados pelo processo. A principal tarefa das instalações de gerenciamento de fluxo de trabalho do sistema OET é garantir um fluxo suave de transações comerciais em todo o sistema, para garantir a segurança dos fluxos e controlar e auditar as transações. Os fluxos de trabalho são definidos seguindo o rascunho atual do Workflow Process Definition Language (WPDL) especificado pela Workflow Management Coalition (WfMC). As definições do processo de fluxo de trabalho controlam diretamente o funcionamento do sistema de gerenciamento. Ele controla, por exemplo, que o sistema comercial não gera nem aceita transações não autorizadas, defeituosas, duplicadas ou desenfreadas. Ele também monitora e controla os processos comerciais e suas mudanças de estado, armazena dados e logs de comunicação e administra as autoridades dos usuários. O sistema OET supõe que o comprador e a organização do vendedor tenham seus próprios processos de fluxo de trabalho em execução em seus próprios sistemas, e esses fluxos de trabalho intercomunicam usando mensagens comerciais EDIFACT. Outra escolha teria sido construir um sistema de negociação centralizado, por exemplo, algum tipo de serviço intermediário executado por um terceiro confiável, onde as partes fariam logon. No entanto, nossa abordagem distribuída enfatiza a independência das partes e garante a máxima segurança de dados. Além disso, as partes têm toda a liberdade de engenharia de seus processos internos de tomada de decisão como desejam, e conectar facilmente seus sistemas legados existentes aos processos (por exemplo, sistemas de inventário de estoque, sistemas de faturamento). A Figura 2 ilustra as versões básicas dos processos de negociação de compradores e vendedores intercomunicantes. As duas caixas grandes descrevem os processos e as atividades das caixas pequenas nos processos. As atividades foram nomeadas e atribuídas a funções do usuário. Cada processo tem um ponto de partida e um ponto final. As setas indicam o possível fluxo de controle. As instâncias dos processos são mutuamente autônomas de controle com a exceção dos links de comunicação EDIFACT que combinam os processos. Estes foram marcados com linhas largas e as palavras INICIAR ou SINCRONIZAR. Figura 2. Processos intercomunicantes de fluxo de trabalho de partes comerciais. O mainstream dos atuais sistemas de negociação vem implementando cenários de compras simples. Na WWW, os sistemas orientados para o consumidor são comuns para a venda de informações ou produtos de mala direta. Essa orientação é natural, pois a tecnologia usada é barata e o investimento retorna rapidamente. Por outro lado, os sistemas que auxiliam processos comerciais interorganizacionais são mais raros. Esta forma de comércio é caracterizada por transações de vida longa, requisitos de segurança elevados, protocolos multifase, envolvimento de muitos atores no processo e incorporação de vários sistemas legados no processo total. Esses sistemas são muito mais complexos do que os sistemas de compras. No entanto, o potencial de poupança também é enorme. No campo da contratação pública, os custos de tratamento de pedidos são estimados em 5 a 10 das despesas gerais. Estima-se que, ao substituir os processos administrativos executados manualmente com os informatizados, podem ser alcançados até 90 poupanças. A decisão de aplicar o paradigma da intranet, os padrões EDI abertos e as técnicas de fluxo de trabalho no sistema OET provou ser bom. As interfaces inter-organizacionais são totalmente genéricas, em contraste com os sistemas EDIFACT tradicionais que geralmente foram adaptados para determinado uso bilateral, ou têm sido especificamente específicos do setor. Hoje em dia, as transações comerciais freqüentemente cruzam fronteiras linguísticas. Enquanto um número cada vez maior de usuários se conectar a processos comerciais eletrônicos, não é mais possível presumir que todos conheçam, por exemplo, a língua inglesa. O suporte para a língua local está se tornando cada vez mais importante nos sistemas de negociação. O sistema OET foi concebido desde o início como multilingue. Agora, existem três idiomas envolvidos: inglês, finlandês e sueco. Estamos ansiosos para ampliar a cobertura do idioma para a maioria das línguas europeias. Aarno Lehtola - VTT Information Technology Tel: 358 9 456 6032 E-mail: Aarno. Lehtolavtt. fi Tutorial de negociação eletrônica 13 No que diz respeito ao comércio eletrônico, para a maioria dos investidores individuais, a adoção de longo prazo de compra e retenção é provavelmente a Melhor estratégia. A maioria de nós simplesmente não tem tempo ou experiência para trocar a vida. Mas para alguns investidores, o comércio pode ser uma profissão extremamente lucrativa. Sempre houve profissionais que ganharam a vida fora da negociação. Não foi até recentemente, no entanto, que a tecnologia permitiu que indivíduos que trabalhassem para uma corretora acessassem diretamente os mercados. Este tutorial irá aprofundar o funcionamento dos sistemas eletrônicos que permitem esse acesso direto. Bem, também fale sobre as diferenças entre a Bolsa de Valores de Nova York (NYSE) e a Nasdaq e saiba como os negócios de mercado são executados, tanto pelos criadores de mercado quanto por especialistas. Se você é um comerciante aspirante ou um investidor experiente que procura descobrir como tudo funciona, este tutorial explica todos os sistemas de negociação eletrônica de nitty-gritty em termos laymans. O comércio eletrônico é uma nova maneira de criar seu próprio portfólio Leia mais para descobrir (Se você não está familiarizado com ações e negociação no mercado de ações, leia o Tutorial básico de ações.) A forma como o comércio é conduzido está mudando rapidamente à medida que as trocas se voltam para automação. Aprenda os prós e contras da negociação de divisas através desses dois tipos de corretores. A negociação eletrônica quase substituiu completamente o comércio humano face a face. O que já foi associado a comerciantes de gritos e gestos de mãos selvagens agora se tornou mais estreitamente associado a estatísticos e programadores de computador. Descubra o que aconteceu em um determinado estoque com este serviço, mostrando aos fabricantes de mercado da Nasdaq039 melhores preços de oferta e oferta. Uma rede de comunicações eletrônicas conecta compradores e vendedores para que eles possam negociar diretamente ações, moedas e outros instrumentos financeiros. Conheça algumas das diferenças importantes na forma como esses intercâmbios operam e os valores mobiliários que comercializam sobre eles. Perguntas freqüentes A depreciação pode ser usada como uma despesa dedutível para reduzir os custos tributários, reforçando o fluxo de caixa. Saiba como Warren Buffett se tornou tão bem sucedido por meio de sua participação em várias escolas de prestígio e suas experiências do mundo real. O Instituto CFA permite a um indivíduo uma quantidade ilimitada de tentativas em cada exame. Embora você possa tentar o exame. Conheça os salários médios do analista de mercado de ações nos EUA e diferentes fatores que afetam salários e níveis globais. Perguntas freqüentes A depreciação pode ser usada como uma despesa dedutível para reduzir os custos tributários, reforçando o fluxo de caixa. Saiba como Warren Buffett se tornou tão bem sucedido por meio de sua participação em várias escolas de prestígio e suas experiências do mundo real. O Instituto CFA permite a um indivíduo uma quantidade ilimitada de tentativas em cada exame. Embora você possa tentar o exame. Saiba mais sobre os salários médios dos analistas do mercado de ações nos EUA e os diferentes fatores que afetam os salários e os níveis globais. Arquitetura de pisos de negociação Arquitetura de piso de negociação Visão geral do executivo O aumento da concorrência, o maior volume de dados do mercado e as novas demandas regulatórias são algumas das forças motrizes das mudanças da indústria. As empresas estão tentando manter sua vantagem competitiva mudando constantemente suas estratégias de negociação e aumentando a velocidade de negociação. Uma arquitetura viável deve incluir as tecnologias mais recentes dos domínios de rede e de aplicativos. Tem que ser modular para fornecer um caminho gerenciável para evoluir cada componente com uma interrupção mínima no sistema geral. Portanto, a arquitetura proposta por este artigo é baseada em uma estrutura de serviços. Examinamos serviços como mensagens de latência ultra-baixa, monitoramento de latência, multicast, computação, armazenamento, virtualização de dados e aplicativos, resiliência comercial, mobilidade comercial e thin client. A solução para os requisitos complexos da plataforma de negociação da próxima geração deve ser construída com uma mentalidade holística, cruzando os limites dos silos tradicionais, como negócios e tecnologia ou aplicativos e redes. Este documento, principal objetivo, é fornecer diretrizes para a construção de uma plataforma de negociação de latência ultra baixa, ao mesmo tempo em que otimizamos a taxa de transferência e taxa de mensagens em bruto, tanto para os dados do mercado quanto para os pedidos de negociação FIX. Para conseguir isso, estamos propondo as seguintes tecnologias de redução de latência: conectividade entre conexões de alta velocidade ou 10 Gbps para o cluster de negociação Buscador de mensagens de alta velocidade Aceleração de aplicativos via RDMA sem re-código de aplicativos Monitoramento de latência em tempo real e re-direção de Tráfego comercial para o caminho com menor latência Tendências e desafios do setor As arquiteturas de negociação de próxima geração têm que responder ao aumento das demandas de velocidade, volume e eficiência. Por exemplo, espera-se que o volume de opções de dados de mercado dobre após a introdução das opções de negociação de penny em 2007. Também há demandas regulatórias para a melhor execução, que exigem o manuseio de atualizações de preços a taxas que se aproximam de 1 msgs. Para trocas. Eles também exigem visibilidade sobre o frescor dos dados e prova de que o cliente obteve a melhor execução possível. No curto prazo, a velocidade de negociação e inovação são diferenciadores-chave. Um número crescente de negociações é tratada por aplicativos de negociação algorítmica colocados o mais próximo possível do local de execução comercial. Um desafio com esses mecanismos de negociação quotblack-boxquot é que eles compõem o aumento de volume ao emitir ordens apenas para cancelá-los e enviá-los novamente. A causa desse comportamento é a falta de visibilidade em que local oferece melhor execução. O comerciante humano é agora um engenheiro financeiro quot, quotquantquot (analista quantitativo) com habilidades de programação, que pode ajustar os modelos comerciais sobre a marcha. As empresas desenvolvem novos instrumentos financeiros, como derivados do tempo ou transações de classe de ativos cruzados, e precisam implementar os novos aplicativos de forma rápida e escalável. A longo prazo, a diferenciação competitiva deve ser feita a partir da análise, não apenas do conhecimento. Os comerciantes de estrelas de amanhã assumem riscos, conseguem uma verdadeira visão do cliente e sempre superam o mercado (fonte IBM: www-935.ibmservicesusimcpdfge510-6270-trader. pdf). A resiliência empresarial tem sido uma das principais preocupações das empresas comerciais desde 11 de setembro de 2001. As soluções nesta área variam de centros de dados redundantes situados em diferentes regiões geográficas e conectados a vários locais de negociação para soluções de comerciantes virtuais que oferecem aos comerciantes de energia a maior parte da funcionalidade de um piso comercial Em um local remoto. O setor de serviços financeiros é um dos mais exigentes em termos de requisitos de TI. A indústria está passando por uma mudança arquitetônica para Arquitetura orientada a serviços (SOA), serviços da Web e virtualização de recursos de TI. A SOA aproveita o aumento da velocidade da rede para permitir a ligação dinâmica e a virtualização de componentes de software. Isso permite a criação de novas aplicações sem perder o investimento em sistemas e infraestrutura existentes. O conceito tem o potencial de revolucionar a forma como a integração é feita, permitindo reduções significativas na complexidade e custo dessa integração (gigaspacesdownloadMerrilLynchGigaSpacesWP. pdf). Outra tendência é a consolidação de servidores em fazendas de servidores de centros de dados, enquanto as mesas comerciais possuem apenas extensões KVM e clientes ultrafinos (por exemplo, soluções de lâminas SunRay e HP). As redes de área metropolitana de alta velocidade permitem que os dados de mercado sejam multicast entre diferentes locais, possibilitando a virtualização do piso comercial. Arquitetura de alto nível A Figura 1 descreve a arquitetura de alto nível de um ambiente comercial. A planta ticker e os mecanismos de negociação algorítmica estão localizados no cluster de negócios de alto desempenho no centro de dados das empresas ou na troca. Os comerciantes humanos estão localizados na área de aplicativos do usuário final. Funcionalmente, existem dois componentes de aplicativos no ambiente comercial, editores e assinantes da empresa. O ônibus de mensagens fornece o caminho de comunicação entre editores e assinantes. Existem dois tipos de tráfego específicos para um ambiente comercial: informações de preços do Market DataCarries para instrumentos financeiros, notícias e outras informações de valor agregado, como a análise. É unidirecional e muito sensível à latência, tipicamente entregue ao multicast UDP. É medido em updatessec. E em Mbps. Os fluxos de dados de mercado de um ou vários feeds externos, provenientes de provedores de dados de mercado, como bolsas de valores, agregadores de dados e ECNs. Cada provedor tem seu próprio formato de dados de mercado. Os dados são recebidos por manipuladores de alimentação, aplicativos especializados que normalizam e limpam os dados e enviam-no aos consumidores de dados, como motores de preços, aplicativos de negociação algorítmica ou comerciantes humanos. As empresas que vendem também enviam os dados do mercado para seus clientes, empresas de compra como fundos de investimento, hedge funds e outros gerentes de ativos. Algumas empresas compradoras podem optar por receber feeds diretos dos intercâmbios, reduzindo a latência. Figura 1 Arquitetura de negociação para uma empresa SideSell Side Firm Não existe um padrão industrial para formatos de dados de mercado. Cada troca tem seu formato proprietário. Os provedores de conteúdo financeiro, como a Reuters e Bloomberg, agregam diferentes fontes de dados de mercado, normalizam e adicionam notícias ou análises. Exemplos de feeds consolidados são RDF (Reuters Data Feed), RWF (Reuters Wire Format) e Bloomberg Professional Services Data. Para entregar dados de mercado de baixa latência, ambos os fornecedores lançaram feeds de dados de mercado em tempo real que são menos processados ​​e têm menos análises: Bloomberg B-PipeWith B-Pipe, Bloomberg deslocam o feed de dados de mercado de sua plataforma de distribuição porque um terminal Bloomberg Não é necessário para obter B-Pipe. Wombat e Reuters Feed Handlers anunciaram apoio para a B-Pipe. Uma empresa pode decidir receber feeds diretamente de uma troca para reduzir a latência. Os ganhos na velocidade de transmissão podem variar entre 150 milissegundos e 500 milissegundos. Esses feeds são mais complexos e mais caros e a empresa tem que construir e manter sua própria planta de ticker (financetechfeaturedshowArticle. jhtmlarticleID60404306). Ordens de troca Esse tipo de tráfego traz os negócios reais. É bidirecional e muito sensível à latência. É medido em messagessec. E Mbps. Os pedidos originam-se de uma empresa compradora ou comercial e são enviados para locais de negociação como um Exchange ou ECN para execução. O formato mais comum para o transporte de pedidos é FIX (Informações Financeiras eXchangefixprotocol. org). As aplicações que manipulam mensagens FIX são chamadas de motores FIX e eles se interagem com sistemas de gerenciamento de pedidos (OMS). Uma otimização para FIX é denominada FAST (Fix Adapted for Streaming), que usa um esquema de compressão para reduzir o comprimento da mensagem e, de fato, reduzir a latência. FAST é direcionado mais para a entrega de dados de mercado e tem potencial para se tornar um padrão. FAST também pode ser usado como um esquema de compressão para formatos de dados de mercado proprietários. Para reduzir a latência, as empresas podem optar por estabelecer acesso direto ao mercado (DMA). DMA é o processo automatizado de rotear uma ordem de valores mobiliários diretamente para um local de execução, evitando assim a intervenção de um terceiro (towergroupresearchcontentglossary. jsppage1ampglossaryId383). O DMA requer uma conexão direta com o local de execução. O barramento de mensagens é um software de middleware de fornecedores, como Tibco, 29West, Reuters RMDS, ou uma plataforma de código aberto como o AMQP. O barramento de mensagens usa um mecanismo confiável para entregar mensagens. O transporte pode ser feito através de TCPIP (TibcoEMS, 29West, RMDS e AMQP) ou UDPmulticast (TibcoRV, 29West e RMDS). Um conceito importante na distribuição de mensagens é o fluxo quotópico, que é um subconjunto de dados de mercado definidos por critérios como o símbolo do ticker, a indústria ou uma determinada cesta de instrumentos financeiros. Os assinantes se juntam a grupos de tópicos mapeados para um ou vários sub-tópicos para receber apenas as informações relevantes. No passado, todos os comerciantes receberam todos os dados do mercado. Nos atuais volumes de tráfego, isso seria sub-ótimo. A rede desempenha um papel crítico no ambiente comercial. Os dados do mercado são levados ao balcão onde os comerciantes humanos estão localizados através de uma rede de alta velocidade Campus ou Metro Area. Alta disponibilidade e baixa latência, bem como alto rendimento, são as métricas mais importantes. O ambiente de negociação de alto desempenho tem a maioria de seus componentes no farm de servidores do Data Center. Para minimizar a latência, os mecanismos de negociação algorítmica precisam estar localizados na proximidade dos manipuladores de alimentação, dos motores FIX e dos sistemas de gerenciamento de pedidos. Um modelo de implantação alternativo possui os sistemas de negociação algorítmica localizados em uma troca ou um provedor de serviços com conectividade rápida para trocas múltiplas. Modelos de implantação Existem dois modelos de implantação para uma plataforma de negociação de alto desempenho. As empresas podem escolher ter uma combinação dos dois: Centro de dados da empresa comercial (Figura 2) Este é o modelo tradicional, onde uma plataforma de negociação de pleno direito é desenvolvida e mantida pela empresa com links de comunicação para todos os locais de negociação. A latência varia com a velocidade dos links e o número de lúpulos entre a empresa e os locais. Figura 2 Modelo de implantação tradicional Co-localização no local de negociação (trocas, provedores de serviços financeiros (FSP)) (Figura 3) A empresa comercial implementa sua plataforma de negociação automatizada o mais próximo possível dos locais de execução para minimizar a latência. Figura 3 Arquitetura de negociação orientada para serviços modelo de implantação hospedada Proponemos uma estrutura orientada a serviços para a construção da arquitetura comercial de próxima geração. Esta abordagem fornece uma estrutura conceitual e um caminho de implementação baseado em modularização e minimização de interdependências. Esta estrutura fornece às empresas uma metodologia para: Avaliar seu estado atual em termos de serviços Priorizar os serviços com base no seu valor para o negócio Evoluir a plataforma de negociação para o estado desejado usando uma abordagem modular A arquitetura de negociação de alto desempenho depende dos seguintes serviços, como Definido pelo quadro de arquitetura de serviços representado na Figura 4. Figura 4 Estrutura de Arquitetura de Serviços para Negociação de Alto Desempenho Serviço de Mensagens de Latência Ultra-Baixa Este serviço é fornecido pelo barramento de mensagens, que é um sistema de software que resolva o problema de conectar muitos-a - Muitas aplicações. O sistema consiste em: Um conjunto de esquemas de mensagens pré-definidos Um conjunto de mensagens de comando comuns Uma infra-estrutura de aplicativos compartilhados para enviar as mensagens aos destinatários. A infra-estrutura compartilhada pode ser baseada em um corretor de mensagens ou em um modelo de cancelamento de publicação. Os principais requisitos para o barramento de mensagens de próxima geração são (fonte 29West): menor latência possível (por exemplo, menos de 100 microssegundos) Estabilidade sob carga pesada (por exemplo, mais de 1,4 milhões de msgsec.) Controle e flexibilidade (controle de taxa e transportes configuráveis) São esforços na indústria para padronizar o ônibus de mensagens. O Advanced Message Queuing Protocol (AMQP) é um exemplo de um padrão aberto defendido por J. P. Morgan Chase e apoiado por um grupo de fornecedores, tais como Cisco, Envoy Technologies, Red Hat, TWIST Process Innovations, Iona, 29West e iMatix. Dois dos principais objetivos são fornecer um caminho mais simples para a interoperabilidade para aplicações escritas em diferentes plataformas e modularidade para que o middleware possa ser facilmente desenvolvido. Em termos muito gerais, um servidor AMQP é análogo a um servidor de E-mail com cada troca atuando como um agente de transferência de mensagens e cada fila de mensagens como caixa de correio. As ligações definem as tabelas de roteamento em cada agente de transferência. Os editores enviam mensagens para agentes de transferência individuais, que então roteiam as mensagens para as caixas de correio. Os consumidores tomam mensagens de caixas de correio, o que cria um modelo poderoso e flexível que é simples (fonte: amqp. orgtikiwikitiki-index. phppageOpenApproachWhyAMQP). Serviço de Monitoramento de Latência Os principais requisitos para este serviço são: Granularidade de milissegundos de medidas Visibilidade em tempo real sem adicionar latência ao tráfego comercial Capacidade de diferenciar latência de processamento de aplicativos de latência de trânsito de rede Capacidade de lidar com altas taxas de mensagens Fornecer uma interface programática para Negociação de aplicativos para receber dados de latência, permitindo que os mecanismos de negociação algorítmica se adaptem às condições de mudança. Correlacionar eventos de rede com eventos de aplicativos para fins de solução de problemas. A latência pode ser definida como o intervalo de tempo entre quando uma ordem comercial é enviada e quando a mesma ordem é reconhecida e agendada Sobre a parte receptora. Abordar o problema de latência é um problema complexo, que requer uma abordagem holística que identifique todas as fontes de latência e aplique diferentes tecnologias em diferentes camadas do sistema. A Figura 5 mostra a variedade de componentes que podem introduzir latência em cada camada da pilha OSI. Ele também mapeia cada fonte de latência com uma solução possível e uma solução de monitoramento. Esta abordagem em camadas pode dar às empresas uma maneira mais estruturada de atacar a questão da latência, pelo qual cada componente pode ser considerado como um serviço e tratado de forma consistente em toda a empresa. Manter uma medida precisa do estado dinâmico desse intervalo de tempo em rotas alternativas e destinos pode ser de grande ajuda nas decisões táticas de negociação. A capacidade de identificar a localização exata dos atrasos, seja na rede de ponta dos clientes, no centro central de processamento ou no nível de aplicação da transação, determina significativamente a capacidade dos prestadores de serviços de atender aos acordos de nível de serviço comercial (SLA). Para os formulários do lado da compra e do lado da venda, bem como para os comerciantes de dados de mercado, a rápida identificação e remoção de estrangulamentos se traduz diretamente em oportunidades comerciais e receitas melhoradas. Figura 5 Arquitetura de gerenciamento de latência Ferramentas de monitoramento de baixa latência da Cisco As ferramentas tradicionais de monitoramento de rede operam com granularidade de minutos ou segundos. As plataformas de negociação de próxima geração, especialmente as que oferecem suporte à negociação algorítmica, exigem latências inferiores a 5 ms e níveis extremamente baixos de perda de pacotes. Em uma LAN Gigabit, um microburst de 100 ms pode causar perda de 10.000 transtornos ou atraso excessivo. A Cisco oferece aos seus clientes uma escolha de ferramentas para medir a latência em um ambiente comercial: Gerenciador de Qualidade de Banda Larga (BQM) (OEM da Corvil) Gerenciador de Qualidade de Banda Larga (BQM) 4.0 Um produto de gerenciamento de desempenho de aplicativos de rede de próxima geração que permite aos clientes monitorar e provisionar sua rede para níveis controlados de latência e desempenho de perdas. Embora o BQM não seja exclusivamente alvo de redes comerciais, sua visibilidade por microsecondes combinada com características de provisionamento de banda larga inteligentes o torna ideal para esses ambientes exigentes. O Cisco BQM 4.0 implementa um amplo conjunto de tecnologias de análise de tráfego e de medição de tráfego patenteadas e pendentes de patente que proporcionam ao usuário uma visibilidade e uma compreensão sem precedentes de como otimizar a rede para o máximo desempenho da aplicação. O Cisco BQM agora é suportado na família de produtos do Cisco Application Deployment Engine (ADE). A família de produtos Cisco ADE é a plataforma de escolha para aplicativos de gerenciamento de rede da Cisco. Benefícios da BQM A micro-visibilidade do Cisco BQM é a capacidade de detectar, medir e analisar eventos de transição de latência, jitter e perda de indução para níveis microscópios de granularidade por resolução de pacotes. Isso permite que o Cisco BQM detecte e determine o impacto dos eventos de trânsito na latência, jitter e perda da rede. Critical para ambientes de negociação é que o BQM pode suportar medições de latência, perda e jitter de uma via para o tráfego TCP e UDP (multicast). Isso significa que ele informa perfeitamente tanto para o tráfego comercial quanto para os feeds de dados do mercado. O BQM permite ao usuário especificar um conjunto abrangente de limiares (contra atividade de microburst, latência, perda, jitter, utilização, etc.) em todas as interfaces. BQM, em seguida, opera uma captura de pacote de rolagem de fundo. Sempre que ocorre uma violação de limite ou outro evento de degradação de desempenho potencial, ele desencadeia o Cisco BQM para armazenar a captura de pacotes no disco para análise posterior. Isso permite ao usuário examinar detalhadamente o tráfego de aplicativos que foi afetado pela degradação do desempenho (quotthe victimsquot) e o tráfego que causou a degradação do desempenho (quotthe culpritsquot). Isso pode reduzir significativamente o tempo gasto no diagnóstico e na resolução de problemas de desempenho da rede. O BQM também é capaz de fornecer recomendações detalhadas de aprovisionamento de políticas de largura de banda e qualidade de serviço (QoS), que o usuário pode aplicar diretamente para alcançar o desempenho da rede desejado. Medidas BQM ilustradas Para entender a diferença entre algumas das técnicas de medição mais convencionais e a visibilidade fornecida pela BQM, podemos observar alguns gráficos de comparação. No primeiro conjunto de gráficos (Figura 6 e Figura 7), vemos a diferença entre a latência medida pelo Monitor de Qualidade de Rede Passiva do BQM (PNQM) e a latência medida pela injeção de pacotes de ping a cada 1 segundo no fluxo de tráfego. Na Figura 6., vemos a latência reportada por pacotes de ping ICMP de 1 segundo para tráfego de rede real (é dividido por 2 para dar uma estimativa para o atraso de ida). Ele mostra o atraso confortavelmente abaixo de cerca de 5ms por quase todo o tempo. Figura 6 Latência relatada por pacotes de ping ICMP de 1 segundo para tráfego de rede real Na Figura 7. vemos a latência relatada pelo PNQM pelo mesmo tráfego ao mesmo tempo. Aqui vemos que ao medir a latência unidirecional dos pacotes de aplicativos reais, obtemos uma imagem radicalmente diferente. Aqui, a latência está pairando em torno de 20 ms, com rajadas ocasionais muito maiores. A explicação é que, como o ping está enviando pacotes apenas a cada segundo, está perdendo a maior parte da latência do tráfego do aplicativo. Na verdade, os resultados do ping normalmente apenas indicam atraso de propagação de ida e volta em vez de latência de aplicação realista em toda a rede. Figura 7 Latência relatada pelo PNQM para o tráfego de rede real No segundo exemplo (Figura 8), vemos a diferença nos níveis de carga ou saturação de link relatados entre uma visão média de 5 minutos e uma visão de microburst de 5 ms (BQM pode informar sobre microbursos para baixo Para uma precisão de 10-100 nanosegundos). A linha verde mostra a utilização média em médias de 5 minutos para ser baixa, talvez até 5 Mbits. O gráfico azul escuro mostra a atividade de microburst de 5ms que atinge entre 75 Mbits e 100 Mbits, a velocidade da LAN efetivamente. O BQM mostra esse nível de granularidade para todas as aplicações e também fornece regras de provisionamento claras para permitir ao usuário controlar ou neutralizar essas microbursas. Figura 8 Diferença na carga do link relatado entre uma visão média de 5 minutos e uma implantação BQM de Microburst de 5 ms na rede de negociação A Figura 9 mostra uma implantação BQM típica em uma rede comercial. Figura 9 Implantação típica de BQM em uma rede de negociação O BQM pode então ser usado para responder a esses tipos de perguntas: Algum dos meus links principais Gigabit LAN está saturado por mais de milissegundos X Isso está causando perda Quais links mais se beneficiarão de uma atualização para o Etherchannel ou 10 velocidades de Gigabit O tráfego de aplicativos está causando a saturação de meus links de 1 Gigabit Algum dos dados do mercado que experimentam perda de ponta a ponta Quanto latencia adicional o centro de dados de failover experimenta Este link está dimensionado corretamente para lidar com microbursts Meus comerciantes Obtendo baixas atualizações de latência da camada de distribuição de dados do mercado Eles estão vendo atrasos maiores que X milissegundos. Ser capaz de responder a essas perguntas de forma simples e efetivamente economiza tempo e dinheiro na execução da rede comercial. O BQM é uma ferramenta essencial para obter visibilidade nos dados de mercado e nos ambientes de negociação. It provides granular end-to-end latency measurements in complex infrastructures that experience high-volume data movement. Effectively detecting microbursts in sub-millisecond levels and receiving expert analysis on a particular event is invaluable to trading floor architects. Smart bandwidth provisioning recommendations, such as sizing and what-if analysis, provide greater agility to respond to volatile market conditions. As the explosion of algorithmic trading and increasing message rates continues, BQM, combined with its QoS tool, provides the capability of implementing QoS policies that can protect critical trading applications. Cisco Financial Services Latency Monitoring Solution Cisco and Trading Metrics have collaborated on latency monitoring solutions for FIX order flow and market data monitoring. Cisco AON technology is the foundation for a new class of network-embedded products and solutions that help merge intelligent networks with application infrastructure, based on either service-oriented or traditional architectures. Trading Metrics is a leading provider of analytics software for network infrastructure and application latency monitoring purposes (tradingmetrics ). The Cisco AON Financial Services Latency Monitoring Solution (FSMS) correlated two kinds of events at the point of observation: Network events correlated directly with coincident application message handling Trade order flow and matching market update events Using time stamps asserted at the point of capture in the network, real-time analysis of these correlated data streams permits precise identification of bottlenecks across the infrastructure while a trade is being executed or market data is being distributed. By monitoring and measuring latency early in the cycle, financial companies can make better decisions about which network serviceand which intermediary, market, or counterpartyto select for routing trade orders. Likewise, this knowledge allows more streamlined access to updated market data (stock quotes, economic news, etc.), which is an important basis for initiating, withdrawing from, or pursuing market opportunities. The components of the solution are: AON hardware in three form factors: AON Network Module for Cisco 2600280037003800 routers AON Blade for the Cisco Catalyst 6500 series AON 8340 Appliance Trading Metrics MampA 2.0 software, which provides the monitoring and alerting application, displays latency graphs on a dashboard, and issues alerts when slowdowns occur (tradingmetricsTMbrochure. pdf ). Figure 10 AON-Based FIX Latency Monitoring Cisco IP SLA Cisco IP SLA is an embedded network management tool in Cisco IOS which allows routers and switches to generate synthetic traffic streams which can be measured for latency, jitter, packet loss, and other criteria (ciscogoipsla ). Two key concepts are the source of the generated traffic and the target. Both of these run an IP SLA quotresponder, quot which has the responsibility to timestamp the control traffic before it is sourced and returned by the target (for a round trip measurement). Various traffic types can be sourced within IP SLA and they are aimed at different metrics and target different services and applications. The UDP jitter operation is used to measure one-way and round-trip delay and report variations. As the traffic is time stamped on both sending and target devices using the responder capability, the round trip delay is characterized as the delta between the two timestamps. A new feature was introduced in IOS 12.3(14)T, IP SLA Sub Millisecond Reporting, which allows for timestamps to be displayed with a resolution in microseconds, thus providing a level of granularity not previously available. This new feature has now made IP SLA relevant to campus networks where network latency is typically in the range of 300-800 microseconds and the ability to detect trends and spikes (brief trends) based on microsecond granularity counters is a requirement for customers engaged in time-sensitive electronic trading environments. As a result, IP SLA is now being considered by significant numbers of financial organizations as they are all faced with requirements to: Report baseline latency to their users Trend baseline latency over time Respond quickly to traffic bursts that cause changes in the reported latency Sub-millisecond reporting is necessary for these customers, since many campus and backbones are currently delivering under a second of latency across several switch hops. Electronic trading environments have generally worked to eliminate or minimize all areas of device and network latency to deliver rapid order fulfillment to the business. Reporting that network response times are quotjust under one millisecondquot is no longer sufficient the granularity of latency measurements reported across a network segment or backbone need to be closer to 300-800 micro-seconds with a degree of resolution of 100 igrave seconds. IP SLA recently added support for IP multicast test streams, which can measure market data latency. A typical network topology is shown in Figure 11 with the IP SLA shadow routers, sources, and responders. Figure 11 IP SLA Deployment Computing Services Computing services cover a wide range of technologies with the goal of eliminating memory and CPU bottlenecks created by the processing of network packets. Trading applications consume high volumes of market data and the servers have to dedicate resources to processing network traffic instead of application processing. Transport processingAt high speeds, network packet processing can consume a significant amount of server CPU cycles and memory. An established rule of thumb states that 1Gbps of network bandwidth requires 1 GHz of processor capacity (source Intel white paper on IO acceleration inteltechnologyioacceleration306517.pdf ). Intermediate buffer copyingIn a conventional network stack implementation, data needs to be copied by the CPU between network buffers and application buffers. This overhead is worsened by the fact that memory speeds have not kept up with increases in CPU speeds. For example, processors like the Intel Xeon are approaching 4 GHz, while RAM chips hover around 400MHz (for DDR 3200 memory) (source Intel inteltechnologyioacceleration306517.pdf ). Context switchingEvery time an individual packet needs to be processed, the CPU performs a context switch from application context to network traffic context. This overhead could be reduced if the switch would occur only when the whole application buffer is complete. Figure 12 Sources of Overhead in Data Center Servers TCP Offload Engine (TOE)Offloads transport processor cycles to the NIC. Moves TCPIP protocol stack buffer copies from system memory to NIC memory. Remote Direct Memory Access (RDMA)Enables a network adapter to transfer data directly from application to application without involving the operating system. Eliminates intermediate and application buffer copies (memory bandwidth consumption). Kernel bypass Direct user-level access to hardware. Dramatically reduces application context switches. Figure 13 RDMA and Kernel Bypass InfiniBand is a point-to-point (switched fabric) bidirectional serial communication link which implements RDMA, among other features. Cisco offers an InfiniBand switch, the Server Fabric Switch (SFS): ciscoapplicationpdfenusguestnetsolns500c643cdccont0900aecd804c35cb. pdf. Figure 14 Typical SFS Deployment Trading applications benefit from the reduction in latency and latency variability, as proved by a test performed with the Cisco SFS and Wombat Feed Handlers by Stac Research: Application Virtualization Service De-coupling the application from the underlying OS and server hardware enables them to run as network services. One application can be run in parallel on multiple servers, or multiple applications can be run on the same server, as the best resource allocation dictates. This decoupling enables better load balancing and disaster recovery for business continuance strategies. The process of re-allocating computing resources to an application is dynamic. Using an application virtualization system like Data Synapses GridServer, applications can migrate, using pre-configured policies, to under-utilized servers in a supply-matches-demand process (networkworldsupp2005ndc1022105virtual. htmlpage2 ). There are many business advantages for financial firms who adopt application virtualization: Faster time to market for new products and services Faster integration of firms following merger and acquisition activity Increased application availability Better workload distribution, which creates more quothead roomquot for processing spikes in trading volume Operational efficiency and control Reduction in IT complexity Currently, application virtualization is not used in the trading front-office. One use-case is risk modeling, like Monte Carlo simulations. As the technology evolves, it is conceivable that some the trading platforms will adopt it. Data Virtualization Service To effectively share resources across distributed enterprise applications, firms must be able to leverage data across multiple sources in real-time while ensuring data integrity. With solutions from data virtualization software vendors such as Gemstone or Tangosol (now Oracle), financial firms can access heterogeneous sources of data as a single system image that enables connectivity between business processes and unrestrained application access to distributed caching. The net result is that all users have instant access to these data resources across a distributed network (gridtoday030210101061.html ). This is called a data grid and is the first step in the process of creating what Gartner calls Extreme Transaction Processing (XTP) (gartnerDisplayDocumentrefgsearchampid500947 ). Technologies such as data and applications virtualization enable financial firms to perform real-time complex analytics, event-driven applications, and dynamic resource allocation. One example of data virtualization in action is a global order book application. An order book is the repository of active orders that is published by the exchange or other market makers. A global order book aggregates orders from around the world from markets that operate independently. The biggest challenge for the application is scalability over WAN connectivity because it has to maintain state. Todays data grids are localized in data centers connected by Metro Area Networks (MAN). This is mainly because the applications themselves have limitsthey have been developed without the WAN in mind. Figure 15 GemStone GemFire Distributed Caching Before data virtualization, applications used database clustering for failover and scalability. This solution is limited by the performance of the underlying database. Failover is slower because the data is committed to disc. With data grids, the data which is part of the active state is cached in memory, which reduces drastically the failover time. Scaling the data grid means just adding more distributed resources, providing a more deterministic performance compared to a database cluster. Multicast Service Market data delivery is a perfect example of an application that needs to deliver the same data stream to hundreds and potentially thousands of end users. Market data services have been implemented with TCP or UDP broadcast as the network layer, but those implementations have limited scalability. Using TCP requires a separate socket and sliding window on the server for each recipient. UDP broadcast requires a separate copy of the stream for each destination subnet. Both of these methods exhaust the resources of the servers and the network. The server side must transmit and service each of the streams individually, which requires larger and larger server farms. On the network side, the required bandwidth for the application increases in a linear fashion. For example, to send a 1 Mbps stream to 1000recipients using TCP requires 1 Gbps of bandwidth. IP multicast is the only way to scale market data delivery. To deliver a 1 Mbps stream to 1000 recipients, IP multicast would require 1 Mbps. The stream can be delivered by as few as two serversone primary and one backup for redundancy. There are two main phases of market data delivery to the end user. In the first phase, the data stream must be brought from the exchange into the brokerages network. Typically the feeds are terminated in a data center on the customer premise. The feeds are then processed by a feed handler, which may normalize the data stream into a common format and then republish into the application messaging servers in the data center. The second phase involves injecting the data stream into the application messaging bus which feeds the core infrastructure of the trading applications. The large brokerage houses have thousands of applications that use the market data streams for various purposes, such as live trades, long term trending, arbitrage, etc. Many of these applications listen to the feeds and then republish their own analytical and derivative information. For example, a brokerage may compare the prices of CSCO to the option prices of CSCO on another exchange and then publish ratings which a different application may monitor to determine how much they are out of synchronization. Figure 16 Market Data Distribution Players The delivery of these data streams is typically over a reliable multicast transport protocol, traditionally Tibco Rendezvous. Tibco RV operates in a publish and subscribe environment. Each financial instrument is given a subject name, such as CSCO. last. Each application server can request the individual instruments of interest by their subject name and receive just a that subset of the information. This is called subject-based forwarding or filtering. Subject-based filtering is patented by Tibco. A distinction should be made between the first and second phases of market data delivery. The delivery of market data from the exchange to the brokerage is mostly a one-to-many application. The only exception to the unidirectional nature of market data may be retransmission requests, which are usually sent using unicast. The trading applications, however, are definitely many-to-many applications and may interact with the exchanges to place orders. Figure 17 Market Data Architecture Design Issues Number of GroupsChannels to Use Many application developers consider using thousand of multicast groups to give them the ability to divide up products or instruments into small buckets. Normally these applications send many small messages as part of their information bus. Usually several messages are sent in each packet that are received by many users. Sending fewer messages in each packet increases the overhead necessary for each message. In the extreme case, sending only one message in each packet quickly reaches the point of diminishing returnsthere is more overhead sent than actual data. Application developers must find a reasonable compromise between the number of groups and breaking up their products into logical buckets. Consider, for example, the Nasdaq Quotation Dissemination Service (NQDS). The instruments are broken up alphabetically: This approach allows for straight forward networkapplication management, but does not necessarily allow for optimized bandwidth utilization for most users. A user of NQDS that is interested in technology stocks, and would like to subscribe to just CSCO and INTL, would have to pull down all the data for the first two groups of NQDS. Understanding the way users pull down the data and then organize it into appropriate logical groups optimizes the bandwidth for each user. In many market data applications, optimizing the data organization would be of limited value. Typically customers bring in all data into a few machines and filter the instruments. Using more groups is just more overhead for the stack and does not help the customers conserve bandwidth. Another approach might be to keep the groups down to a minimum level and use UDP port numbers to further differentiate if necessary. The other extreme would be to use just one multicast group for the entire application and then have the end user filter the data. In some situations this may be sufficient. Intermittent Sources A common issue with market data applications are servers that send data to a multicast group and then go silent for more than 3.5 minutes. These intermittent sources may cause trashing of state on the network and can introduce packet loss during the window of time when soft state and then hardware shorts are being created. PIM-Bidir or PIM-SSM The first and best solution for intermittent sources is to use PIM-Bidir for many-to-many applications and PIM-SSM for one-to-many applications. Both of these optimizations of the PIM protocol do not have any data-driven events in creating forwarding state. That means that as long as the receivers are subscribed to the streams, the network has the forwarding state created in the hardware switching path. Intermittent sources are not an issue with PIM-Bidir and PIM-SSM. Null Packets In PIM-SM environments a common method to make sure forwarding state is created is to send a burst of null packets to the multicast group before the actual data stream. The application must efficiently ignore these null data packets to ensure it does not affect performance. The sources must only send the burst of packets if they have been silent for more than 3 minutes. A good practice is to send the burst if the source is silent for more than a minute. Many financials send out an initial burst of traffic in the morning and then all well-behaved sources do not have problems. Periodic Keepalives or Heartbeats An alternative approach for PIM-SM environments is for sources to send periodic heartbeat messages to the multicast groups. This is a similar approach to the null packets, but the packets can be sent on a regular timer so that the forwarding state never expires. S, G Expiry Timer Finally, Cisco has made a modification to the operation of the S, G expiry timer in IOS. There is now a CLI knob to allow the state for a S, G to stay alive for hours without any traffic being sent. The (S, G) expiry timer is configurable. This approach should be considered a workaround until PIM-Bidir or PIM-SSM is deployed or the application is fixed. RTCP Feedback A common issue with real time voice and video applications that use RTP is the use of RTCP feedback traffic. Unnecessary use of the feedback option can create excessive multicast state in the network. If the RTCP traffic is not required by the application it should be avoided. Fast Producers and Slow Consumers Today many servers providing market data are attached at Gigabit speeds, while the receivers are attached at different speeds, usually 100Mbps. This creates the potential for receivers to drop packets and request re-transmissions, which creates more traffic that the slowest consumers cannot handle, continuing the vicious circle. The solution needs to be some type of access control in the application that limits the amount of data that one host can request. QoS and other network functions can mitigate the problem, but ultimately the subscriptions need to be managed in the application. Tibco Heartbeats TibcoRV has had the ability to use IP multicast for the heartbeat between the TICs for many years. However, there are some brokerage houses that are still using very old versions of TibcoRV that use UDP broadcast support for the resiliency. This limitation is often cited as a reason to maintain a Layer 2 infrastructure between TICs located in different data centers. These older versions of TibcoRV should be phased out in favor of the IP multicast supported versions. Multicast Forwarding Options PIM Sparse Mode The standard IP multicast forwarding protocol used today for market data delivery is PIM Sparse Mode. It is supported on all Cisco routers and switches and is well understood. PIM-SM can be used in all the network components from the exchange, FSP, and brokerage. There are, however, some long-standing issues and unnecessary complexity associated with a PIM-SM deployment that could be avoided by using PIM-Bidir and PIM-SSM. These are covered in the next sections. The main components of the PIM-SM implementation are: PIM Sparse Mode v2 Shared Tree (spt-threshold infinity) A design option in the brokerage or in the exchange.

No comments:

Post a Comment