Tuesday 13 March 2018

트레이딩 바닥 시스템


트레이딩 플로어.


'Trading Floor'의 정의


거래 활동이 이루어지는 층. 거래 플로어는 뉴욕 증권 거래소 (New York Stock Exchange) 및 시카고 무역위원회 (Chicago Board of Trade)와 같은 다양한 거래소의 건물에서 발견됩니다. 이 층은 거래자가 자산 매매를 완료하는 영역을 나타냅니다.


'무역 층'을 깨기


무역 층은 또한 지역의 바쁜 성격으로 인해 거래소의 "구덩이"라고도 불립니다. 그러나 전자 거래 플랫폼의 출현으로 거래가 전자적 기반으로 이루어짐에 따라 한때 시장 거래를 지배했던 많은 거래 층이 사라지기 시작했습니다.


트레이딩 플로어 아키텍처.


사용 가능한 언어.


다운로드 옵션.


다양한 장치에서 Adobe Reader로 봅니다.


목차.


트레이딩 플로어 아키텍처.


임원 개요.


경쟁이 치열 해지고 시장 데이터 량이 증가하고 새로운 규제 요구가 산업 변화의 원동력이되고 있습니다. 기업들은 끊임없이 거래 전략을 변경하고 거래 속도를 높임으로써 경쟁 우위를 유지하려고 노력하고 있습니다.


실행 가능한 아키텍처에는 네트워크 및 응용 프로그램 도메인의 최신 기술이 포함되어야합니다. 전체 시스템에 미치는 영향을 최소화하면서 각 구성 요소를 발전시킬 수있는 관리 가능한 경로를 제공하려면 모듈 식이어야합니다. 따라서 본 논문에서 제안한 아키텍처는 서비스 프레임 워크를 기반으로한다. 초 저 지연 메시징, 지연 모니터링, 멀티 캐스트, 컴퓨팅, 스토리지, 데이터 및 애플리케이션 가상화, 거래 탄력성, 거래 이동성 및 씬 클라이언트와 같은 서비스를 검토합니다.


차세대 거래 플랫폼의 복잡한 요구 사항에 대한 솔루션은 비즈니스 및 기술, 응용 프로그램 및 네트워킹과 같은 전통적인 사일로의 경계를 넘어 전체 론적 사고 방식으로 구축되어야합니다.


이 문서의 주요 목표는 시장 데이터 및 FIX 거래 주문에 대한 원시 처리량 및 메시지 속도를 최적화하면서 초저 지연 트랜잭션 플랫폼을 구축하기위한 지침을 제공하는 것입니다.


이를 위해 다음 대기 시간 감소 기술을 제안합니다.


• 고속 클러스터 간 연결 - 거래 클러스터 용 InfiniBand 또는 10Gbps 연결.


• 고속 메시징 버스.


• 응용 프로그램 재 코드없이 RDMA를 통한 응용 프로그램 가속화.


• 실시간 레이턴시 모니터링 및 최소한의 대기 시간으로 경로에 대한 거래 트래픽 방향 전환.


산업 동향 및 과제.


차세대 거래 아키텍처는 속도, 볼륨 및 효율성에 대한 요구가 높아짐에 따라 대응해야합니다. 예를 들어, 옵션 시장 데이터의 양은 2007 년 페니 거래 옵션 도입 이후 두 배가 될 것으로 예상됩니다. 1M msg / sec에 근접하는 속도로 가격 업데이트를 처리해야하는 최적의 실행에 대한 규제 요구가 있습니다. 교환을 위해. 또한 데이터의 최신 성을 확인하고 클라이언트가 가능한 최상의 실행 결과를 얻었 음을 입증해야합니다.


단기적으로 무역 및 혁신의 속도는 중요한 차별화 요소입니다. 무역 거래 장소에 최대한 가깝게 배치 된 알고리즘 거래 응용 프로그램에 의해 처리되는 거래의 수가 증가하고 있습니다. 이들 "블랙 박스 (black-box) 거래 엔진은 주문을 취소하고 다시 제출하여 주문량을 늘려 대량 구매량을 늘리는 것입니다. 이 문제의 원인은 장소에서 최상의 실행을 제공하는 가시성이 부족하기 때문입니다. 인간 상인은 이제 "금융 엔지니어" "퀀 타이즈" (양적 분석가)가 프로그래밍 기술을 습득하여 거래 모델을 즉각 조정할 수 있습니다. 기업은 날씨 파생 상품 또는 교차 자산 클래스 거래와 같은 새로운 금융 상품을 개발하고 새로운 애플리케이션을 신속하고 확장 가능한 방식으로 배포해야합니다.


장기적으로, 경쟁적 차별화는 지식뿐만 아니라 분석에서 나옵니다. 내일의 스타 트레이더들은 위험을 감수하고, 진정한 고객 통찰력을 얻으며, 지속적으로 시장을 이겨냅니다 (출처 : IBM : www-935.ibm / services / us / imc / pdf / ge510-6270-trader. pdf).


비즈니스 탄력성은 2001 년 9 월 11 일 이후 무역 회사의 주된 관심사 중 하나였습니다. 이 지역의 솔루션은 여러 지리적 위치에있는 중복 데이터 센터와 여러 거래 현장과 연결되어 가상 거래 솔루션을 제공하여 전력 거래자에게 거래 현장의 기능 대부분을 제공합니다 원격 위치에 있습니다.


금융 서비스 산업은 IT 요구 사항 측면에서 가장 까다로운 부분 중 하나입니다. 업계에서는 SOA (Services-Oriented Architecture), 웹 서비스 및 IT 리소스의 가상화에 대한 아키텍처 변화가 일어나고 있습니다. SOA는 네트워크 속도의 증가를 이용하여 소프트웨어 구성 요소의 동적 바인딩 및 가상화를 가능하게합니다. 이를 통해 기존 시스템 및 인프라에 대한 투자를 잃지 않고 새로운 응용 프로그램을 만들 수 있습니다. 이 개념은 통합이 이루어지는 방식에 혁신을 일으킬 수있는 잠재력을 지니고있어 이러한 통합의 복잡성과 비용을 크게 줄일 수 있습니다 (gigaspaces / download / MerrilLynchGigaSpacesWP. pdf).


또 다른 추세는 서버를 데이터 센터 서버 팜에 통합하는 반면 상인 용 데스크는 KVM 확장과 초박형 클라이언트 (예 : SunRay 및 HP 블레이드 솔루션) 만 보유합니다. 고속 Metro Area Networks는 서로 다른 위치에서 시장 데이터를 멀티 캐스트 할 수 있도록하여 거래 현장의 가상화를 가능하게합니다.


고수준 아키텍처.


그림 1은 거래 환경의 고수준 아키텍처를 나타낸 것입니다. 시세 플랜트 및 알고리즘 거래 엔진은 회사의 데이터 센터 또는 교환기의 고성능 거래 클러스터에 있습니다. 인적 자원 거래자는 최종 사용자 응용 프로그램 영역에 있습니다.


기능적으로 기업 거래 환경, 게시자 및 가입자에는 두 가지 응용 프로그램 구성 요소가 있습니다. 메시징 버스는 게시자와 가입자 사이의 통신 경로를 제공합니다.


거래 환경과 관련된 두 가지 유형의 트래픽이 있습니다.


• 시장 데이터 - 금융 상품, 뉴스 및 기타 분석과 같은 부가 가치 정보에 대한 가격 정보를 보유합니다. 이는 단방향이며 매우 지연에 민감하며 일반적으로 UDP 멀티 캐스트를 통해 전달됩니다. 업데이트 / 초 단위로 측정됩니다. 및 Mbps. 시장 데이터는 증권 거래소, 데이터 수집기 ​​및 ECN과 같은 시장 데이터 제공 업체에서 제공되는 하나 또는 여러 개의 외부 피드에서 유입됩니다. 각 공급자마다 고유 한 시장 데이터 형식이 있습니다. 데이터는 피드 핸들러에서 수신합니다. 특수 애플리케이션은 데이터를 표준화 및 정리 한 다음 가격 엔진, 알고리즘 거래 응용 프로그램 또는 휴먼 트레이더와 같은 데이터 소비자에게 보냅니다. 또한 매도 측 기업은 고객, 뮤추얼 펀드, 헤지 펀드 및 기타 자산 관리자와 같은 구매 측 기업에게 시장 데이터를 보냅니다. 일부 구매 측 기업은 거래소로부터 직접 피드를 수신하여 대기 시간을 단축 할 수 있습니다.


그림 1 Buy Side / Sell Side Firm의 거래 구조.


시장 데이터 형식에는 업계 표준이 없습니다. 각 교환에는 고유 형식이 있습니다. 로이터와 블룸버그와 같은 금융 컨텐츠 제공 업체는 시장 데이터의 다양한 소스를 집계하고, 표준화하고, 뉴스 또는 분석을 추가합니다. 통합 피드의 예로는 RDF (Reuters Data Feed), RWF (Reuters Wire Format) 및 Bloomberg Professional Services Data가 있습니다.


지연 시간이 짧은 시장 데이터를 제공하기 위해 두 공급 업체는 처리량이 적고 분석 기능이 적은 실시간 시장 데이터 피드를 출시했습니다.


- Bloomberg B-Pipe - B-Pipe를 사용하는 Bloomberg 터미널은 B-pipe를 얻지 않아도되기 때문에 Bloomberg는 유통 플랫폼에서 시장 데이터 피드를 분리합니다. Wombat와 Reuters Feed Handlers는 B-Pipe에 대한 지원을 발표했습니다.


회사는 대기 시간을 줄이기 위해 교환기로부터 직접 피드를 수신하기로 결정할 수 있습니다. 전송 속도의 향상은 150 밀리 초에서 500 밀리 초 사이 일 수 있습니다. 이 피드는 더 복잡하고 비용이 많이 들고 회사는 자체 시세 표시기를 구축하고 유지 관리해야합니다 (financetech / featured / showArticle. jhtml? articleID = 60404306).


• 거래 주문 - 이 유형의 트래픽은 실제 거래를 수행합니다. 양방향이며 매우 지연에 민감합니다. 메시지 / 초 단위로 측정됩니다. 및 Mbps. 주문은 구매 측 또는 판매 측 회사에서 시작하여 실행을 위해 Exchange 또는 ECN과 같은 거래 장소로 보내집니다. 주문 운송의 가장 일반적인 형식은 FIX (Financial Information eXchange-fixprotocol. org/)입니다. FIX 메시지를 처리하는 응용 프로그램은 FIX 엔진이라고하며 주문 관리 시스템 (OMS)과 상호 작용합니다.


FIX에 대한 최적화는 압축 스키마를 사용하여 메시지 길이를 줄이고 결과적으로 대기 시간을 줄이는 FAST (Fix Adapted for Streaming)라고합니다. FAST는 시장 데이터 제공을 목표로하고 있으며 표준이 될 잠재력이 있습니다. FAST는 독점적 인 시장 데이터 형식을위한 압축 스키마로 사용할 수도 있습니다.


대기 시간을 줄이기 위해 기업은 DMA (Direct Market Access)를 수립 할 수 있습니다.


DMA는 유가 증권 주문을 실행 장소로 직접 라우팅하여 타사 (towergroup / research / content / glossary. jsp? page = 1 & glossaryId = 383)의 개입을 피하는 자동화 된 프로세스입니다. DMA는 집행 장소에 직접 연결되어 있어야합니다.


메시징 버스는 Tibco, 29West, Reuters RMDS 또는 AMQP와 같은 오픈 소스 플랫폼과 같은 공급 업체의 미들웨어 소프트웨어입니다. 메시징 버스는 신뢰할 수있는 메커니즘을 사용하여 메시지를 전달합니다. 전송은 TCP / IP (TibcoEMS, 29West, RMDS 및 AMQP) 또는 UDP / 멀티 캐스트 (TibcoRV, 29West 및 RMDS)를 통해 수행 할 수 있습니다. 메시지 분배에서 중요한 개념 중 하나는 "주제 스트림 (topic stream)"이다. 이는 시세 기호, 산업 또는 특정 금융 상품 바구니와 같은 기준으로 정의 된 시장 데이터의 하위 집합입니다. 구독자는 하나 이상의 하위 주제에 매핑 된 주제 그룹에 가입하여 관련 정보 만 수신합니다. 과거에는 모든 거래자가 모든 시장 데이터를 받았습니다. 현재 트래픽 양에서 이는 차선책입니다.


네트워크는 거래 환경에서 중요한 역할을합니다. 시장 데이터는 인적 자원이 캠퍼스 또는 메트로 지역 고속 네트워크를 통해 위치한 거래 층으로 운송됩니다. 높은 가용성과 낮은 대기 시간 및 높은 처리량이 가장 중요한 측정 기준입니다.


고성능 거래 환경에는 대부분의 구성 요소가 데이터 센터 서버 팜에 있습니다. 대기 시간을 최소화하기 위해 알고리즘 거래 엔진은 피드 처리기, FIX 엔진 및 주문 관리 시스템의 근접에 위치해야합니다. 대체 배치 모델은 알고리즘 교환 시스템을 교환기에 위치 시키거나 서비스 제공자는 여러 교환기에 신속하게 연결할 수 있습니다.


배포 모델.


고성능 거래 플랫폼을위한 두 가지 배포 모델이 있습니다. 기업은 두 가지를 혼합하여 선택할 수 있습니다.


• 무역 회사의 데이터 센터 (그림 2) - 모든 거래 장소에 대한 통신 링크가있는 본격적인 거래 플랫폼이 개발 및 유지되는 전통적인 모델입니다. 대기 시간은 링크 속도와 회사와 장소 사이의 홉 수에 따라 다릅니다.


그림 2 전통적인 배포 모델.


• 거래 장소 (거래소, 금융 서비스 제공 업체 (FSP))의 공동 배치 (그림 3)


무역 회사는 자동 거래 플랫폼을 실행 장소에 최대한 가깝게 배치하여 대기 시간을 최소화합니다.


그림 3 호스트 된 배포 모델.


서비스 지향적 인 거래 아키텍처.


우리는 차세대 트레이딩 아키텍처 구축을위한 서비스 지향 프레임 워크를 제안하고 있습니다. 이 접근법은 모듈화 및 상호 의존성의 최소화를 기반으로 한 개념적 프레임 워크와 구현 경로를 제공합니다.


이 프레임 워크는 기업에게 다음과 같은 방법론을 제공합니다.


• 서비스 측면에서 현재 상태를 평가하십시오.


• 비즈니스에 대한 가치에 따라 서비스의 우선 순위를 정하십시오.


• 모듈 방식을 사용하여 거래 플랫폼을 원하는 상태로 발전시킵니다.


고성능 거래 아키텍처는 그림 4에 표시된 서비스 아키텍처 프레임 워크에 정의 된대로 다음 서비스를 사용합니다.


그림 4 고성능 트랜잭션을위한 서비스 아키텍처 프레임 워크.


표 1 서비스 설명 및 기술.


초저 대기 시간 메시징.


계측 기기, 소프트웨어 에이전트 및 라우터 모듈.


OS 및 I / O 가상화, RDMA (Remote Direct Memory Access), TOE (TCP Offload Engines)


애플리케이션 프로세싱을 병렬화하는 미들웨어.


메모리 내 캐싱과 같은 애플리케이션을위한 데이터 액세스를 가속화하는 미들웨어.


네트워크를 통한 하드웨어 지원 멀티 캐스트 복제. 멀티 캐스트 레이어 2 및 레이어 3 최적화.


스토리지 하드웨어 (VSAN)의 가상화, 데이터 복제, 원격 백업 및 파일 가상화.


무역 탄력성과 이동성.


로컬 및 사이트로드 균형 조정 및 고 가용성 캠퍼스 네트워크


광역 응용 서비스.


캠퍼스 밖에서 상주하는 상인을위한 WAN 연결을 통한 애플리케이션 가속화.


씬 클라이언트 서비스.


최종 사용자 대면 터미널에서 컴퓨팅 리소스를 분리합니다.


초저 대기 메시징 서비스.


이 서비스는 다 대다 응용 프로그램을 연결하는 문제를 해결하는 소프트웨어 시스템 인 메시징 버스에서 제공합니다. 시스템 구성 :


미리 정의 된 메시지 스키마 세트.


• 공통 명령 메시지 세트.


수신자에게 메시지를 보내기위한 공유 애플리케이션 인프라. 공유 인프라는 메시지 브로커 또는 게시 / 구독 모델을 기반으로 할 수 있습니다.


차세대 메시징 버스의 주요 요구 사항은 다음과 같습니다 (소스 29West).


• 최저 지연 시간 (예 : 100 마이크로 초 미만)


• 과부하 상태에서의 안정성 (예 : 140 만 msg / 초 이상)


• 제어 및 유연성 (속도 제어 및 구성 가능한 전송)


메시징 버스를 표준화하려는 업계의 노력이 있습니다. Advanced Message Queuing Protocol (AMQP)은 J. P. Morgan Chase가 옹호하고 Cisco, Envoy Technologies, Red Hat, TWIST Process Innovations, Iona, 29West 및 iMatix와 같은 공급 업체 그룹이 지원하는 공개 표준의 한 예입니다. 주요 목표 중 두 가지는 서로 다른 플랫폼 및 모듈 방식으로 작성된 응용 프로그램에 대한 상호 운용성에 대한보다 단순한 경로를 제공하여 미들웨어를 쉽게 진화시킬 수 있도록하는 것입니다.


매우 일반적으로 AMQP 서버는 각 Exchange가 메시지 전송 에이전트 및 각 메시지 큐를 사서함으로 사용하는 전자 메일 서버와 유사합니다. 바인딩은 각 전송 에이전트의 라우팅 테이블을 정의합니다. 게시자는 개별 전송 에이전트로 메시지를 보내고 메시지를 사서함으로 라우팅합니다. 소비자는 사서함에서 메시지를 가져 와서 강력하고 유연한 모델을 만듭니다 (출처 : amqp. org/tikiwiki/tiki-index. php? page=OpenApproach#Why_AMQP_).


대기 시간 모니터링 서비스.


이 서비스의 주요 요구 사항은 다음과 같습니다.


• 밀리 초 단위의 측정 단위.


• 거래 트래픽에 대기 시간을 추가하지 않고 거의 실시간으로 가시성을 확보 할 수 있습니다.


• 응용 프로그램 처리 대기 시간과 네트워크 전송 대기 시간을 구별 할 수있는 기능.


• 높은 메시지 속도를 처리 할 수있는 능력.


• 트랜잭션 애플리케이션이 대기 시간 데이터를 수신 할 수 있도록 프로그래밍 방식의 인터페이스를 제공함으로써 알고리즘 거래 엔진이 변화하는 조건에 적응할 수 있도록 지원합니다.


• 문제 해결을 위해 네트워크 이벤트를 응용 프로그램 이벤트와 관련시킵니다.


대기 시간은 거래 주문이 송부되는 시점과 수령 한 당사자가 동일한 주문을 승인하고 처리 한 시점 사이의 시간 간격으로 정의 할 수 있습니다.


대기 시간 문제를 해결하는 것은 복잡한 문제이므로 모든 지연 소스를 식별하고 시스템의 여러 계층에서 서로 다른 기술을 적용하는 전체 론적 접근 방식이 필요합니다.


그림 5는 OSI 스택의 각 계층에서 대기 시간을 도입 할 수있는 다양한 구성 요소를 보여줍니다. 또한 각 지연 소스를 가능한 솔루션 및 모니터링 솔루션과 매핑합니다. 이러한 계층화 된 접근 방식을 통해 기업은 대기 시간 문제를 공격하는보다 구조화 된 방식을 사용할 수 있으므로 각 구성 요소를 서비스로 간주하고 회사 전체에서 일관되게 처리 할 수 ​​있습니다.


대체 경로와 목적지를 가로 지르는이 시간 간격의 동적 상태를 정확하게 측정하는 것은 전술적 인 거래 결정에 큰 도움이 될 수 있습니다. 고객 에지 네트워크, 중앙 처리 허브 또는 트랜잭션 응용 프로그램 수준에서 지연의 정확한 위치를 식별 할 수 있으므로 서비스 공급자가 거래 서비스 수준 계약 (SLA)을 충족시킬 수있는 능력이 크게 결정됩니다. 구매자 및 판매 측 양식과 시장 데이터 신디케이터의 경우 병목 현상을 신속하게 식별하고 제거하면 무역 기회와 매출이 향상됩니다.


그림 5 지연 관리 아키텍처


시스코의 저 대기 시간 모니터링 툴.


전통적인 네트워크 모니터링 도구는 수분 또는 초 단위로 작동합니다. 차세대 거래 플랫폼, 특히 알고리즘 트레이딩을 지원하는 플랫폼은 5ms 미만의 대기 시간과 극도로 낮은 수준의 패킷 손실을 필요로합니다. 기가비트 LAN에서 100ms 마이크로 버스트는 10,000 건의 트랜잭션이 손실되거나 지나치게 지연 될 수 있습니다.


시스코는 거래 환경에서 대기 시간을 측정 할 수있는 도구를 고객에게 제공합니다.


• 대역폭 품질 관리자 (BQM) (Corvil의 OEM)


• Cisco AON 기반 금융 서비스 대기 시간 모니터링 솔루션 (FSMS)


대역폭 품질 관리자.


BQM (Bandwidth Quality Manager) 4.0은 차세대 네트워크 애플리케이션 성능 관리 제품으로, 고객이 통제 된 대기 시간 및 손실 성능을 위해 네트워크를 모니터링 및 프로비저닝 할 수 있도록합니다. BQM은 거래 네트워크를 대상으로하는 것이 아니지만 지능형 대역폭 프로비저닝 기능과 결합 된 마이크로 초 가시성은 이러한 까다로운 환경에 이상적입니다.


Cisco BQM 4.0은 광범위한 특허 및 특허 출원중인 트래픽 측정 및 네트워크 분석 기술을 구현하여 최대한의 애플리케이션 성능을 위해 네트워크를 최적화하는 방법에 대한 전례없는 가시성 및 이해를 사용자에게 제공합니다.


Cisco BQM은 현재 Cisco Application Deployment Engine (ADE) 제품군에서 지원됩니다. Cisco ADE 제품군은 시스코 네트워크 관리 애플리케이션에 적합한 플랫폼입니다.


BQM 혜택.


Cisco BQM 미시적 가시성은 대기 시간, 지터 및 손실을 탐지, 측정 및 분석하여 트래픽 이벤트를 패킷 해상도 당 1 마이크로 초 수준의 세분화 수준까지 유도합니다. 이를 통해 Cisco BQM은 네트워크 대기 시간, 지터 및 손실에 대한 트래픽 이벤트의 영향을 감지하고 확인할 수 있습니다. 거래 환경에서 중요하게 작용하는 점은 BQM이 TCP 및 UDP (멀티 캐스트) 트래픽에 대해 일방적으로 대기 시간, 손실 및 지터 측정을 지원할 수 있다는 것입니다. 즉, 거래 트래픽과 시장 데이터 피드 모두를 원활하게보고합니다.


BQM을 사용하면 모든 인터페이스에서 포괄적 인 임계 값 세트 (마이크로 버스트 활동, 대기 시간, 손실, 지터, 사용률 등)를 지정할 수 있습니다. 그런 다음 BQM은 백그라운드 롤링 패킷 캡처를 작동합니다. 임계 값 위반 또는 기타 잠재적 성능 저하 이벤트가 발생할 때마다 Cisco BQM은 추후 분석을 위해 패킷 캡처를 디스크에 저장하도록 트리거합니다. 이를 통해 사용자는 성능 저하 ( "피해자") 및 성능 저하를 유발 한 트래픽 ( "범인")에 의해 영향을받은 응용 프로그램 트래픽을 모두 자세히 조사 할 수 있습니다. 따라서 네트워크 성능 문제를 진단하고 해결하는 데 소요되는 시간을 크게 줄일 수 있습니다.


또한 BQM은 사용자가 원하는 네트워크 성능을 달성하기 위해 직접 적용 할 수있는 자세한 대역폭 및 QoS (Quality of Service) 정책 제공 권장 사항을 제공 할 수 있습니다.


BQM 측정 예시.


좀 더 일반적인 측정 기술과 BQM이 제공하는 가시성의 차이점을 이해하기 위해 몇 가지 비교 그래프를 살펴볼 수 있습니다. 첫 번째 그래프 (그림 6 및 그림 7)에서 BQM의 PNQM (Passive Network Quality Monitor)으로 측정 한 대기 시간과 트래픽 스트림에 ping 패킷을 1 초마다 주입하여 측정 한 대기 시간의 차이를 확인합니다.


그림 6에서 실제 네트워크 트래픽에 대해 1 초 ICMP ping 패킷에 의해보고 된 대기 시간을 볼 수 있습니다 (단방향 지연에 대한 예상치를 제공하기 위해 2로 나눕니다). 그것은 거의 모든 시간 동안 약 5ms 아래의 지연을 편안하게 보여줍니다.


그림 6 실제 네트워크 트래픽에 대해 1 초 ICMP Ping 패킷이보고하는 대기 시간


그림 7에서 동일한 트래픽에 대해 PNQM이보고 한 대기 시간을 동시에 확인할 수 있습니다. 여기서는 실제 애플리케이션 패킷의 단방향 대기 시간을 측정하여 근본적으로 다른 그림을 얻습니다. 여기서 레이턴시는 약 20 밀리 초를 가리키며 가끔 버스트가 훨씬 높아집니다. 핑은 매초마다 패킷을 전송하기 때문에 대부분의 응용 프로그램 트래픽 대기 시간이 빠져 있다는 설명이 있습니다. 실제로 ping 결과는 일반적으로 네트워크를 통한 실제 응용 프로그램 대기 시간보다는 왕복 전파 지연을 나타냅니다.


그림 7 실제 네트워크 트래픽에 대해 PNQM에 의해보고 된 대기 시간


두 번째 예 (그림 8)에서는 5 분 평균보기와 5ms 마이크로 버스트보기 사이에보고 된 링크로드 또는 채도 수준의 차이를 볼 수 있습니다 (BQM은 마이크로 버스트를 약 10-100 나노초 정확도로보고 할 수 있음). 초록색 선은 평균 5 분 평균 사용률이 낮을 수도 있고, 최대 5 Mbits / s 일 수도 있습니다. 진한 파란색 플롯은 LAN 속도가 효과적으로 75Mbits / s ~ 100Mbits / s 사이에 도달하는 5ms 마이크로 버스트 활동을 보여줍니다. BQM은 모든 응용 프로그램에 대해이 세분화 수준을 보여 주며 사용자가 이러한 마이크로 버스트를 제어하거나 중립화 할 수 있도록하는 명확한 프로비저닝 규칙도 제공합니다.


그림 8 5 분 평균보기와 5ms 마이크로 버스트보기 간의보고 된 링크로드의 차이


Trading Network에서의 BQM 배치.


그림 9는 거래 네트워크의 일반적인 BQM 배치를 보여줍니다.


그림 9 Trading Network의 일반적인 BQM 배치.


그런 다음 BQM을 사용하여 다음 유형의 질문에 대답 할 수 있습니다.


• 기가비트 LAN 코어 링크 중 X 밀리 초 이상 포화 상태에 있습니까? 이로 인해 손실이 발생합니까? Etherchannel 또는 10 기가비트 속도로 업그레이드하면 어떤 링크가 가장 도움이됩니까?


• 내 1 기가비트 링크가 포화 상태에있는 애플리케이션 트래픽은 무엇입니까?


• 시장 데이터 중 어떤 것이 종단 간 손실을 겪고 있습니까?


• 페일 오버 데이터 센터에서 추가 대기 시간은 얼마나됩니까? 마이크로 링크를 다루기 위해이 링크의 크기가 올바르게 조정 되었습니까?


• 상인이 시장 데이터 유통 계층에서 지연 시간이 짧은 업데이트를 받고 있습니까? X 밀리 초보다 큰 지연이 있습니까?


이 질문에 간단하고 효과적으로 대답 할 수 있으면 거래 네트워크를 운영하는 데 드는 시간과 비용을 절약 할 수 있습니다.


BQM은 시장 데이터 및 거래 환경에서 가시성을 확보하는 데 필수적인 도구입니다. 대용량 데이터 이동을 경험하는 복잡한 인프라 스트럭처에서 세분화 된 종단 간 대기 시간 측정을 제공합니다. 서브 밀리 초 레벨에서 마이크로 버스트를 효과적으로 감지하고 특정 이벤트에 대한 전문가 분석을받는 것은 거래 층 설계자에게 매우 중요합니다. 사이징 및 가상 분석과 같은 스마트 대역폭 프로비저닝 권장 사항은 불안한 시장 상황에 대응할 수있는 민첩성을 제공합니다. 알고리즘 거래가 증가하고 메시지 속도가 계속 증가함에 따라 BQM은 QoS 도구와 결합하여 중요한 거래 응용 프로그램을 보호 할 수있는 QoS 정책을 구현할 수있는 기능을 제공합니다.


Cisco 금융 서비스 대기 시간 모니터링 솔루션.


Cisco 및 Trading Metrics는 FIX 주문 흐름 및 시장 데이터 모니터링을위한 대기 시간 모니터링 솔루션과 협력 해 왔습니다. Cisco AON 기술은 서비스 지향 아키텍처 또는 기존 아키텍처를 기반으로 지능형 네트워크를 애플리케이션 인프라와 병합하는 데 도움이되는 새로운 수준의 네트워크 임베디드 제품 및 솔루션의 기반입니다. Trading Metrics는 네트워크 인프라 및 응용 프로그램 대기 시간 모니터링 (tradingmetrics /)을위한 분석 소프트웨어의 선도적 제공 업체입니다.


Cisco AON Financial Services 대기 모니터링 솔루션 (FSMS)은 관찰 시점에서 두 가지 종류의 이벤트를 연관 시켰습니다.


• 네트워크 이벤트는 일치하는 응용 프로그램 메시지 처리와 직접 관련되어 있습니다.


• 거래 주문 흐름 및 일치하는 시장 업데이트 이벤트.


네트워크에서 캡처 시점에서 주장 된 타임 스탬프를 사용하여 이러한 상호 연관된 데이터 스트림을 실시간으로 분석함으로써 거래가 실행되거나 시장 데이터가 배포되는 동안 인프라 전반에서 병목 현상을 정확하게 식별 할 수 있습니다. 주기 초기에 대기 시간을 모니터링하고 측정함으로써 금융 회사는 거래 주문 라우팅을 위해 선택할 네트워크 서비스 및 중개자, 시장 또는 상대방에 대해 더 나은 결정을 내릴 수 있습니다. 마찬가지로이 지식을 통해 시장 기회를 시작, 철수 또는 추구하는 데 중요한 기초가되는 업데이트 된 시장 데이터 (주식 시세, 경제 뉴스 등)에보다 능률적으로 액세스 할 수 있습니다.


솔루션의 구성 요소는 다음과 같습니다.


• 3 가지 폼 팩터의 AON 하드웨어 :


- Cisco 2600/2800/3700/3800 라우터 용 AON 네트워크 모듈.


- Cisco Catalyst 6500 시리즈 용 AON 블레이드.


- AON 8340 기기.


• 모니터링 및 경고 애플리케이션을 제공하는 Trading Metrics M & A 2.0 소프트웨어는 대시 보드에 대기 시간 그래프를 표시하고 속도 저하가 발생하면 경고를 표시합니다 (tradingmetrics / TM_brochure. pdf).


그림 10 AON 기반 FIX 대기 시간 모니터링.


Cisco IP SLA.


Cisco IP SLA는 라우터 및 스위치가 대기 시간, 지터, 패킷 손실 및 기타 기준 (cisco / go / ipsla)에 대해 측정 할 수있는 합성 트래픽 스트림을 생성 할 수있게 해주는 Cisco IOS의 임베디드 네트워크 관리 도구입니다.


두 가지 핵심 개념은 생성 된 트래픽의 소스와 대상입니다. 이들 모두는 IP SLA "응답자 (responder)"를 실행한다. 제어 트래픽이 출입되어 목표에 의해 반환되기 전에 제어 트래픽을 타임 스탬프하는 책임이 있습니다 (왕복 측정의 경우). 다양한 트래픽 유형이 IP SLA 내에서 제공 될 수 있으며 여러 가지 메트릭을 목표로하고 서로 다른 서비스 및 응용 프로그램을 대상으로합니다. UDP 지터 연산은 단방향 및 왕복 지연을 측정하고 변동을보고하는 데 사용됩니다. 트래픽이 응답자 기능을 사용하여 송신 및 대상 장치에 시간 스탬프가 찍히게되므로 왕복 지연은 두 개의 타임 스탬프 간의 델타로 특징 지워집니다.


새로운 기능은 타임 스탬프를 마이크로 초 단위의 해상도로 표시 할 수있는 IP SLA Sub Millisecond Reporting의 IOS 12.3 (14) T에서 소개되어 이전에는 사용할 수 없었던 수준의 세분성을 제공합니다. 이 새로운 기능은 이제 네트워크 대기 시간이 일반적으로 300-800 마이크로 초 범위 인 캠퍼스 네트워크와 관련된 IP SLA를 만들었으며 시간에 종사하는 고객에게는 마이크로 초 세분성 카운터를 기반으로 한 경향 및 스파이크 (간단한 경향)를 감지하는 기능이 필요합니다. 민감한 전자 거래 환경.


결과적으로 IP SLA는 많은 수의 금융 기관에 의해 다음과 같은 요구 사항에 직면 해 있습니다.


• 사용자에게 기본 대기 시간을보고합니다.


시간 경과에 따른 경향 기준선 대기 시간.


보고 된 대기 시간이 변경되는 트래픽 급증에 신속하게 대응하십시오.


많은 캠퍼스와 백본이 현재 여러 스위치 홉에 걸친 대기 시간 중 두 번째에 도달하기 때문에 이러한 고객에게는 밀리 초 미만의보고가 필요합니다. 전자 거래 환경은 일반적으로 장치 및 네트워크 지연의 모든 영역을 제거하거나 최소화하여 비즈니스에 신속한 주문 이행을 제공하기 위해 노력했습니다. 네트워크 응답 시간이 "단지 1 밀리 초 미만"이라고보고하면, 더 이상 충분하지 않습니다. 네트워크 세그먼트 또는 백본을 통해보고 된 대기 시간 측정의 세분성은 100 & igrave의 분해능으로 300-800 마이크로 초에 근접해야합니다. 초.


IP SLA는 최근 시장 데이터 대기 시간을 측정 할 수있는 IP 멀티 캐스트 테스트 스트림에 대한 지원을 추가했습니다.


일반적인 네트워크 토폴로지는 그림 11에 IP SLA 섀도우 라우터, 소스 및 응답자와 함께 표시됩니다.


그림 11 IP SLA 배포.


컴퓨팅 서비스.


컴퓨팅 서비스는 네트워크 패킷 처리로 인해 생성되는 메모리 및 CPU 병목 현상을 없애기 위해 다양한 기술을 포괄합니다. 거래 응용 프로그램은 대량의 시장 데이터를 소비하며 서버는 응용 프로그램 처리 대신 네트워크 트래픽 처리에 리소스를 할당해야합니다.


• 전송 처리 - 고속에서는 네트워크 패킷 처리가 상당한 양의 서버 CPU주기 및 메모리를 소비 할 수 있습니다. 네트워크 대역폭의 1Gbps에는 1GHz의 프로세서 용량 (I / O 가속 인텔 / 기술 / ioacceleration / 306517.pdf에 대한 인텔 인텔 백서)이 필요합니다.


• 중간 버퍼 복사 - 기존 네트워크 스택 구현에서 데이터는 네트워크 버퍼와 응용 프로그램 버퍼 사이에서 CPU에 의해 복사되어야합니다. 이 오버 헤드는 메모리 속도가 CPU 속도의 증가에 맞춰지지 않았다는 사실에 의해 악화됩니다. 예를 들어 Intel Xeon과 같은 프로세서는 4GHz에 접근하고 RAM 칩은 400MHz (DDR 3200 메모리의 경우)로 이동합니다 (Intel Intel / Technology / ioacceleration / 306517.pdf).


• 컨텍스트 스위칭 - 개별 패킷을 처리해야 할 때마다 CPU는 응용 프로그램 컨텍스트에서 네트워크 트래픽 컨텍스트로 컨텍스트 전환을 수행합니다. 이 오버 헤드는 전체 애플리케이션 버퍼가 완료 될 때만 스위치가 발생하면 줄어들 수 있습니다.


그림 12 데이터 센터 서버의 오버 헤드 소스.


• TCP Offload Engine (TOE) - 프로세서 사이클을 NIC로 전송합니다. TCP / IP 프로토콜 스택 버퍼 복사본을 시스템 메모리에서 NIC 메모리로 이동합니다.


• RDMA (Remote Direct Memory Access) - 네트워크 어댑터가 운영 체제와 관련없이 응용 프로그램에서 응용 프로그램으로 직접 데이터를 전송할 수 있도록합니다. 중간 및 응용 프로그램 버퍼 복사본 (메모리 대역폭 소비)을 제거합니다.


• 커널 바이 패스 - 하드웨어에 대한 사용자 수준의 직접 액세스. 어플리케이션 컨텍스트 스위치를 대폭 감소시킵니다.


그림 13 RDMA 및 커널 바이 패스.


InfiniBand는 RDMA를 구현하는 포인트 - 투 - 포인트 (스위치 패브릭) 양방향 직렬 통신 링크입니다. 시스코는 InfiniBand 스위치 인 SFS (Server Fabric Switch)를 제공합니다. cisco / application / pdf / ko / ko / guest / netsol / ns500 / c643 / cdccont_0900aecd804c35cb. pdf.


그림 14 일반적인 SFS 배포.


Stac Research의 Cisco SFS 및 Wombat 피드 처리기로 수행 한 테스트에서 입증 된 바와 같이 거래 응용 프로그램은 대기 시간 및 대기 시간 변동성 감소로 이익을 얻습니다.


응용 프로그램 가상화 서비스.


기본 OS 및 서버 하드웨어에서 응용 프로그램을 분리하면 네트워크 서비스로 실행할 수 있습니다. 하나의 응용 프로그램을 여러 서버에서 병렬로 실행하거나 최상의 자원 할당에 따라 동일한 서버에서 여러 응용 프로그램을 실행할 수 있습니다. 이러한 디커플링은 비즈니스 연속성 전략을위한 향상된로드 밸런싱 및 재해 복구를 가능하게합니다. 컴퓨팅 리소스를 응용 프로그램에 다시 할당하는 프로세스는 동적입니다. Data Synapse의 GridServer와 같은 응용 프로그램 가상화 시스템을 사용하면 응용 프로그램은 사전 구성된 정책을 사용하여 공급 수요 충족 프로세스 (supply-matches-demand process) (wwwworkworld / supp / 2005 / ndc1 / 022105virtual. html? page = 2) .


애플리케이션 가상화를 채택하는 금융 회사에게는 다음과 같은 많은 비즈니스 이점이 있습니다.


• 새로운 제품 및 서비스를 출시하는 시간을 단축하십시오.


합병 및 인수 활동에 따른 기업의 신속한 통합.


• 응용 프로그램 가용성이 향상되었습니다.


• 더 많은 "헤드 룸"을 생성하는 더 나은 워크로드 배포. 거래량 급증을 처리합니다.


• 운영 효율성 및 제어.


• Reduction in IT complexity.


Currently, application virtualization is not used in the trading front-office. One use-case is risk modeling, like Monte Carlo simulations. As the technology evolves, it is conceivable that some the trading platforms will adopt it.


Data Virtualization Service.


To effectively share resources across distributed enterprise applications, firms must be able to leverage data across multiple sources in real-time while ensuring data integrity. With solutions from data virtualization software vendors such as Gemstone or Tangosol (now Oracle), financial firms can access heterogeneous sources of data as a single system image that enables connectivity between business processes and unrestrained application access to distributed caching. The net result is that all users have instant access to these data resources across a distributed network (gridtoday/03/0210/101061.html).


This is called a data grid and is the first step in the process of creating what Gartner calls Extreme Transaction Processing (XTP) (gartner/DisplayDocument? ref=g_search&id=500947). Technologies such as data and applications virtualization enable financial firms to perform real-time complex analytics, event-driven applications, and dynamic resource allocation.


One example of data virtualization in action is a global order book application. An order book is the repository of active orders that is published by the exchange or other market makers. A global order book aggregates orders from around the world from markets that operate independently. The biggest challenge for the application is scalability over WAN connectivity because it has to maintain state. Today's data grids are localized in data centers connected by Metro Area Networks (MAN). This is mainly because the applications themselves have limits—they have been developed without the WAN in mind.


Figure 15 GemStone GemFire Distributed Caching.


Before data virtualization, applications used database clustering for failover and scalability. This solution is limited by the performance of the underlying database. Failover is slower because the data is committed to disc. With data grids, the data which is part of the active state is cached in memory, which reduces drastically the failover time. Scaling the data grid means just adding more distributed resources, providing a more deterministic performance compared to a database cluster.


Multicast Service.


Market data delivery is a perfect example of an application that needs to deliver the same data stream to hundreds and potentially thousands of end users. Market data services have been implemented with TCP or UDP broadcast as the network layer, but those implementations have limited scalability. Using TCP requires a separate socket and sliding window on the server for each recipient. UDP broadcast requires a separate copy of the stream for each destination subnet. Both of these methods exhaust the resources of the servers and the network. The server side must transmit and service each of the streams individually, which requires larger and larger server farms. On the network side, the required bandwidth for the application increases in a linear fashion. For example, to send a 1 Mbps stream to 1000recipients using TCP requires 1 Gbps of bandwidth.


IP multicast is the only way to scale market data delivery. To deliver a 1 Mbps stream to 1000 recipients, IP multicast would require 1 Mbps. The stream can be delivered by as few as two servers—one primary and one backup for redundancy.


There are two main phases of market data delivery to the end user. In the first phase, the data stream must be brought from the exchange into the brokerage's network. Typically the feeds are terminated in a data center on the customer premise. The feeds are then processed by a feed handler, which may normalize the data stream into a common format and then republish into the application messaging servers in the data center.


The second phase involves injecting the data stream into the application messaging bus which feeds the core infrastructure of the trading applications. The large brokerage houses have thousands of applications that use the market data streams for various purposes, such as live trades, long term trending, arbitrage, etc. Many of these applications listen to the feeds and then republish their own analytical and derivative information. For example, a brokerage may compare the prices of CSCO to the option prices of CSCO on another exchange and then publish ratings which a different application may monitor to determine how much they are out of synchronization.


Figure 16 Market Data Distribution Players.


The delivery of these data streams is typically over a reliable multicast transport protocol, traditionally Tibco Rendezvous. Tibco RV operates in a publish and subscribe environment. Each financial instrument is given a subject name, such as CSCO. last. Each application server can request the individual instruments of interest by their subject name and receive just a that subset of the information. This is called subject-based forwarding or filtering. Subject-based filtering is patented by Tibco.


A distinction should be made between the first and second phases of market data delivery. The delivery of market data from the exchange to the brokerage is mostly a one-to-many application. The only exception to the unidirectional nature of market data may be retransmission requests, which are usually sent using unicast. The trading applications, however, are definitely many-to-many applications and may interact with the exchanges to place orders.


Figure 17 Market Data Architecture.


Design Issues.


Number of Groups/Channels to Use.


Many application developers consider using thousand of multicast groups to give them the ability to divide up products or instruments into small buckets. Normally these applications send many small messages as part of their information bus. Usually several messages are sent in each packet that are received by many users. Sending fewer messages in each packet increases the overhead necessary for each message.


In the extreme case, sending only one message in each packet quickly reaches the point of diminishing returns—there is more overhead sent than actual data. Application developers must find a reasonable compromise between the number of groups and breaking up their products into logical buckets.


Consider, for example, the Nasdaq Quotation Dissemination Service (NQDS). The instruments are broken up alphabetically:


Another example is the Nasdaq Totalview service, broken up this way:


This approach allows for straight forward network/application management, but does not necessarily allow for optimized bandwidth utilization for most users. A user of NQDS that is interested in technology stocks, and would like to subscribe to just CSCO and INTL, would have to pull down all the data for the first two groups of NQDS. Understanding the way users pull down the data and then organize it into appropriate logical groups optimizes the bandwidth for each user.


In many market data applications, optimizing the data organization would be of limited value. Typically customers bring in all data into a few machines and filter the instruments. Using more groups is just more overhead for the stack and does not help the customers conserve bandwidth. Another approach might be to keep the groups down to a minimum level and use UDP port numbers to further differentiate if necessary. The other extreme would be to use just one multicast group for the entire application and then have the end user filter the data. In some situations this may be sufficient.


Intermittent Sources.


A common issue with market data applications are servers that send data to a multicast group and then go silent for more than 3.5 minutes. These intermittent sources may cause trashing of state on the network and can introduce packet loss during the window of time when soft state and then hardware shorts are being created.


PIM-Bidir or PIM-SSM.


The first and best solution for intermittent sources is to use PIM-Bidir for many-to-many applications and PIM-SSM for one-to-many applications.


Both of these optimizations of the PIM protocol do not have any data-driven events in creating forwarding state. That means that as long as the receivers are subscribed to the streams, the network has the forwarding state created in the hardware switching path.


Intermittent sources are not an issue with PIM-Bidir and PIM-SSM.


Null Packets.


In PIM-SM environments a common method to make sure forwarding state is created is to send a burst of null packets to the multicast group before the actual data stream. The application must efficiently ignore these null data packets to ensure it does not affect performance. The sources must only send the burst of packets if they have been silent for more than 3 minutes. A good practice is to send the burst if the source is silent for more than a minute. Many financials send out an initial burst of traffic in the morning and then all well-behaved sources do not have problems.


Periodic Keepalives or Heartbeats.


An alternative approach for PIM-SM environments is for sources to send periodic heartbeat messages to the multicast groups. This is a similar approach to the null packets, but the packets can be sent on a regular timer so that the forwarding state never expires.


S, G Expiry Timer.


Finally, Cisco has made a modification to the operation of the S, G expiry timer in IOS. There is now a CLI knob to allow the state for a S, G to stay alive for hours without any traffic being sent. The (S, G) expiry timer is configurable. This approach should be considered a workaround until PIM-Bidir or PIM-SSM is deployed or the application is fixed.


RTCP Feedback.


A common issue with real time voice and video applications that use RTP is the use of RTCP feedback traffic. Unnecessary use of the feedback option can create excessive multicast state in the network. If the RTCP traffic is not required by the application it should be avoided.


Fast Producers and Slow Consumers.


Today many servers providing market data are attached at Gigabit speeds, while the receivers are attached at different speeds, usually 100Mbps. This creates the potential for receivers to drop packets and request re-transmissions, which creates more traffic that the slowest consumers cannot handle, continuing the vicious circle.


The solution needs to be some type of access control in the application that limits the amount of data that one host can request. QoS and other network functions can mitigate the problem, but ultimately the subscriptions need to be managed in the application.


Tibco Heartbeats.


TibcoRV has had the ability to use IP multicast for the heartbeat between the TICs for many years. However, there are some brokerage houses that are still using very old versions of TibcoRV that use UDP broadcast support for the resiliency. This limitation is often cited as a reason to maintain a Layer 2 infrastructure between TICs located in different data centers. These older versions of TibcoRV should be phased out in favor of the IP multicast supported versions.


Multicast Forwarding Options.


PIM Sparse Mode.


The standard IP multicast forwarding protocol used today for market data delivery is PIM Sparse Mode. It is supported on all Cisco routers and switches and is well understood. PIM-SM can be used in all the network components from the exchange, FSP, and brokerage.


There are, however, some long-standing issues and unnecessary complexity associated with a PIM-SM deployment that could be avoided by using PIM-Bidir and PIM-SSM. These are covered in the next sections.


The main components of the PIM-SM implementation are:


• PIM Sparse Mode v2.


• Shared Tree (spt-threshold infinity)


A design option in the brokerage or in the exchange.


Details of Anycast RP can be found in:


The classic high availability design for Tibco in the brokerage network is documented in:


Bidirectional PIM.


PIM-Bidir is an optimization of PIM Sparse Mode for many-to-many applications. It has several key advantages over a PIM-SM deployment:


• Better support for intermittent sources.


• No data-triggered events.


One of the weaknesses of PIM-SM is that the network continually needs to react to active data flows. This can cause non-deterministic behavior that may be hard to troubleshoot. PIM-Bidir has the following major protocol differences over PIM-SM:


– No source registration.


Source traffic is automatically sent to the RP and then down to the interested receivers. There is no unicast encapsulation, PIM joins from the RP to the first hop router and then registration stop messages.


All PIM-Bidir traffic is forwarded on a *,G forwarding entry. The router does not have to monitor the traffic flow on a *,G and then send joins when the traffic passes a threshold.


– No need for an actual RP.


The RP does not have an actual protocol function in PIM-Bidir. The RP acts as a routing vector in which all the traffic converges. The RP can be configured as an address that is not assigned to any particular device. This is called a Phantom RP.


– No need for MSDP.


MSDP provides source information between RPs in a PIM-SM network. PIM-Bidir does not use the active source information for any forwarding decisions and therefore MSDP is not required.


Bidirectional PIM is ideally suited for the brokerage network in the data center of the exchange. In this environment there are many sources sending to a relatively few set of groups in a many-to-many traffic pattern.


The key components of the PIM-Bidir implementation are:


Further details about Phantom RP and basic PIM-Bidir design are documented in:


Source Specific Multicast.


PIM-SSM is an optimization of PIM Sparse Mode for one-to-many applications. In certain environments it can offer several distinct advantages over PIM-SM. Like PIM-Bidir, PIM-SSM does not rely on any data-triggered events. Furthermore, PIM-SSM does not require an RP at all—there is no such concept in PIM-SSM. The forwarding information in the network is completely controlled by the interest of the receivers.


Source Specific Multicast is ideally suited for market data delivery in the financial service provider. The FSP can receive the feeds from the exchanges and then route them to the end of their network.


Many FSPs are also implementing MPLS and Multicast VPNs in their core. PIM-SSM is the preferred method for transporting traffic in VRFs.


When PIM-SSM is deployed all the way to the end user, the receiver indicates his interest in a particular S, G with IGMPv3. Even though IGMPv3 was defined by RFC 2236 back in October, 2002, it still has not been implemented by all edge devices. This creates a challenge for deploying an end-to-end PIM-SSM service. A transitional solution has been developed by Cisco to enable an edge device that supports IGMPv2 to participate in an PIM-SSM service. This feature is called SSM Mapping and is documented in:


Storage Services.


The service provides storage capabilities into the market data and trading environments. Trading applications access backend storage to connect to different databases and other repositories consisting of portfolios, trade settlements, compliance data, management applications, Enterprise Service Bus (ESB), and other critical applications where reliability and security is critical to the success of the business. The main requirements for the service are:


Storage virtualization is an enabling technology that simplifies management of complex infrastructures, enables non-disruptive operations, and facilitates critical elements of a proactive information lifecycle management (ILM) strategy. EMC Invista running on the Cisco MDS 9000 enables heterogeneous storage pooling and dynamic storage provisioning, allowing allocation of any storage to any application. High availability is increased with seamless data migration. Appropriate class of storage is allocated to point-in-time copies (clones). Storage virtualization is also leveraged through the use of Virtual Storage Area Networks (VSANs), which enable the consolidation of multiple isolated SANs onto a single physical SAN infrastructure, while still partitioning them as completely separate logical entities. VSANs provide all the security and fabric services of traditional SANs, yet give organizations the flexibility to easily move resources from one VSAN to another. This results in increased disk and network utilization while driving down the cost of management. Integrated Inter VSAN Routing (IVR) enables sharing of common resources across VSANs.


Figure 18 High Performance Computing Storage.


Replication of data to a secondary and tertiary data center is crucial for business continuance. Replication offsite over Fiber Channel over IP (FCIP) coupled with write acceleration and tape acceleration provides improved performance over long distance. Continuous Data Replication (CDP) is another mechanism which is gaining popularity in the industry. It refers to backup of computer data by automatically saving a copy of every change made to that data, essentially capturing every version of the data that the user saves. It allows the user or administrator to restore data to any point in time. Solutions from EMC and Incipient utilize the SANTap protocol on the Storage Services Module (SSM) in the MDS platform to provide CDP functionality. The SSM uses the SANTap service to intercept and redirect a copy of a write between a given initiator and target. The appliance does not reside in the data path—it is completely passive. The CDP solutions typically leverage a history journal that tracks all changes and bookmarks that identify application-specific events. This ensures that data at any point in time is fully self-consistent and is recoverable instantly in the event of a site failure.


Backup procedure reliability and performance are extremely important when storing critical financial data to a SAN. The use of expensive media servers to move data from disk to tape devices can be cumbersome. Network-accelerated serverless backup (NASB) helps you back up increased amounts of data in shorter backup time frames by shifting the data movement from multiple backup servers to Cisco MDS 9000 Series multilayer switches. This technology decreases impact on application servers because the MDS offloads the application and backup servers. It also reduces the number of backup and media servers required, thus reducing CAPEX and OPEX. The flexibility of the backup environment increases because storage and tape drives can reside anywhere on the SAN.


Trading Resilience and Mobility.


The main requirements for this service are to provide the virtual trader:


• Fully scalable and redundant campus trading environment.


• Resilient server load balancing and high availability in analytic server farms.


• Global site load balancing that provide the capability to continue participating in the market venues of closest proximity.


A highly-available campus environment is capable of sustaining multiple failures (i. e., links, switches, modules, etc.), which provides non-disruptive access to trading systems for traders and market data feeds. Fine-tuned routing protocol timers, in conjunction with mechanisms such as NSF/SSO, provide subsecond recovery from any failure.


The high-speed interconnect between data centers can be DWDM/dark fiber, which provides business continuance in case of a site failure. Each site is 100km-200km apart, allowing synchronous data replication. Usually the distance for synchronous data replication is 100km, but with Read/Write Acceleration it can stretch to 200km. A tertiary data center can be greater than 200km away, which would replicate data in an asynchronous fashion.


Figure 19 Trading Resilience.


A robust server load balancing solution is required for order routing, algorithmic trading, risk analysis, and other services to offer continuous access to clients regardless of a server failure. Multiple servers encompass a "farm" and these hosts can added/removed without disruption since they reside behind a virtual IP (VIP) address which is announced in the network.


A global site load balancing solution provides remote traders the resiliency to access trading environments which are closer to their location. This minimizes latency for execution times since requests are always routed to the nearest venue.


Figure 20 Virtualization of Trading Environment.


A trading environment can be virtualized to provide segmentation and resiliency in complex architectures. Figure 20 illustrates a high-level topology depicting multiple market data feeds entering the environment, whereby each vendor is assigned its own Virtual Routing and Forwarding (VRF) instance. The market data is transferred to a high-speed InfiniBand low-latency compute fabric where feed handlers, order routing systems, and algorithmic trading systems reside. All storage is accessed via a SAN and is also virtualized with VSANs, allowing further security and segmentation. The normalized data from the compute fabric is transferred to the campus trading environment where the trading desks reside.


Wide Area Application Services.


This service provides application acceleration and optimization capabilities for traders who are located outside of the core trading floor facility/data center and working from a remote office. To consolidate servers and increase security in remote offices, file servers, NAS filers, storage arrays, and tape drives are moved to a corporate data center to increase security and regulatory compliance and facilitate centralized storage and archival management. As the traditional trading floor is becoming more virtual, wide area application services technology is being utilized to provide a "LAN-like" experience to remote traders when they access resources at the corporate site. Traders often utilize Microsoft Office applications, especially Excel in addition to Sharepoint and Exchange. Excel is used heavily for modeling and permutations where sometime only small portions of the file are changed. CIFS protocol is notoriously known to be "chatty," where several message normally traverse the WAN for a simple file operation and it is addressed by Wide Area Application Service (WAAS) technology. Bloomberg and Reuters applications are also very popular financial tools which access a centralized SAN or NAS filer to retrieve critical data which is fused together before represented to a trader's screen.


Figure 21 Wide Area Optimization.


A pair of Wide Area Application Engines (WAEs) that reside in the remote office and the data center provide local object caching to increase application performance. The remote office WAEs can be a module in the ISR router or a stand-alone appliance. The data center WAE devices are load balanced behind an Application Control Engine module installed in a pair of Catalyst 6500 series switches at the aggregation layer. The WAE appliance farm is represented by a virtual IP address. The local router in each site utilizes Web Cache Communication Protocol version 2 (WCCP v2) to redirect traffic to the WAE that intercepts the traffic and determines if there is a cache hit or miss. The content is served locally from the engine if it resides in cache; otherwise the request is sent across the WAN the initial time to retrieve the object. This methodology optimizes the trader experience by removing application latency and shielding the individual from any congestion in the WAN.


WAAS uses the following technologies to provide application acceleration:


• Data Redundancy Elimination (DRE) is an advanced form of network compression which allows the WAE to maintain a history of previously-seen TCP message traffic for the purposes of reducing redundancy found in network traffic. This combined with the Lempel-Ziv (LZ) compression algorithm reduces the number of redundant packets that traverse the WAN, which improves application transaction performance and conserves bandwidth.


• Transport Flow Optimization (TFO) employs a robust TCP proxy to safely optimize TCP at the WAE device by applying TCP-compliant optimizations to shield the clients and servers from poor TCP behavior because of WAN conditions. By running a TCP proxy between the devices and leveraging an optimized TCP stack between the devices, many of the problems that occur in the WAN are completely blocked from propagating back to trader desktops. The traders experience LAN-like TCP response times and behavior because the WAE is terminating TCP locally. TFO improves reliability and throughput through increases in TCP window scaling and sizing enhancements in addition to superior congestion management.


Thin Client Service.


This service provides a "thin" advanced trading desktop which delivers significant advantages to demanding trading floor environments requiring continuous growth in compute power. As financial institutions race to provide the best trade executions for their clients, traders are utilizing several simultaneous critical applications that facilitate complex transactions. It is not uncommon to find three or more workstations and monitors at a trader's desk which provide visibility into market liquidity, trading venues, news, analysis of complex portfolio simulations, and other financial tools. In addition, market dynamics continue to evolve with Direct Market Access (DMA), ECNs, alternative trading volumes, and upcoming regulation changes with Regulation National Market System (RegNMS) in the US and Markets in Financial Instruments Directive (MiFID) in Europe. At the same time, business seeks greater control, improved ROI, and additional flexibility, which creates greater demands on trading floor infrastructures.


Traders no longer require multiple workstations at their desk. Thin clients consist of keyboard, mouse, and multi-displays which provide a total trader desktop solution without compromising security. Hewlett Packard, Citrix, Desktone, Wyse, and other vendors provide thin client solutions to capitalize on the virtual desktop paradigm. Thin clients de-couple the user-facing hardware from the processing hardware, thus enabling IT to grow the processing power without changing anything on the end user side. The workstation computing power is stored in the data center on blade workstations, which provide greater scalability, increased data security, improved business continuance across multiple sites, and reduction in OPEX by removing the need to manage individual workstations on the trading floor. One blade workstation can be dedicated to a trader or shared among multiple traders depending on the requirements for computer power.


The "thin client" solution is optimized to work in a campus LAN environment, but can also extend the benefits to traders in remote locations. Latency is always a concern when there is a WAN interconnecting the blade workstation and thin client devices. The network connection needs to be sized accordingly so traffic is not dropped if saturation points exist in the WAN topology. WAN Quality of Service (QoS) should prioritize sensitive traffic. There are some guidelines which should be followed to allow for an optimized user experience. A typical highly-interactive desktop experience requires a client-to-blade round trip latency of <20ms for a 2Kb packet size. There may be a slight lag in display if network latency is between 20ms to 40ms. A typical trader desk with a four multi-display terminal requires 2-3Mbps bandwidth consumption with seamless communication with blade workstation(s) in the data center. Streaming video (800x600 at 24fps/full color) requires 9 Mbps bandwidth usage.


Figure 22 Thin Client Architecture.


Management of a large thin client environment is simplified since a centralized IT staff manages all of the blade workstations dispersed across multiple data centers. A trader is redirected to the most available environment in the enterprise in the event of a particular site failure. High availability is a key concern in critical financial environments and the Blade Workstation design provides rapid provisioning of another blade workstation in the data center. This resiliency provides greater uptime, increases in productivity, and OpEx reduction.


Advanced Encryption Standard.


Advanced Message Queueing Protocol.


Application Oriented Networking.


The Archipelago® Integrated Web book gives investors the unique opportunity to view the entire ArcaEx and ArcaEdge books in addition to books made available by other market participants.


ECN Order Book feed available via NASDAQ.


Chicago Board of Trade.


Class-Based Weighted Fair Queueing.


Continuous Data Replication.


Chicago Mercantile Exchange is engaged in trading of futures contracts and derivatives.


Central Processing Unit.


Distributed Defect Tracking System.


직접적인 시장 접근.


Data Redundancy Elimination.


Dense Wavelength Division Multiplexing.


Electronic Communication Network.


Enterprise Service Bus.


Enterprise Solutions Engineering.


FIX Adapted for Streaming.


Fibre Channel over IP.


Financial Information Exchange.


Financial Services Latency Monitoring Solution.


Financial Service Provider.


Information Lifecycle Management.


Instinet Island Book.


Internetworking Operating System.


Keyboard Video Mouse.


Low Latency Queueing.


Metro Area Network.


Multilayer Director Switch.


금융 계기 지침의 시장.


Message Passing Interface is an industry standard specifying a library of functions to enable the passing of messages between nodes within a parallel computing environment.


Network Attached Storage.


Network Accelerated Serverless Backup.


Network Interface Card.


Nasdaq Quotation Dissemination Service.


Order Management System.


Open Systems Interconnection.


Protocol Independent Multicast.


PIM-Source Specific Multicast.


서비스 품질.


Random Access Memory.


Reuters Data Feed.


Reuters Data Feed Direct.


Remote Direct Memory Access.


Regulation National Market System.


Remote Graphics Software.


Reuters Market Data System.


RTP Control Protocol.


Real Time Protocol.


Reuters Wire Format.


Storage Area Network.


Small Computer System Interface.


Sockets Direct Protocol—Given that many modern applications are written using the sockets API, SDP can intercept the sockets at the kernel level and map these socket calls to an InfiniBand transport service that uses RDMA operations to offload data movement from the CPU to the HCA hardware.


Server Fabric Switch.


Secure Financial Transaction Infrastructure network developed to provide firms with excellent communication paths to NYSE Group, AMEX, Chicago Stock Exchange, NASDAQ, and other exchanges. It is often used for order routing.


floor trading system.


관련 관심사.


평가 및 통계.


공유 옵션.


문서 작업.


이 미리보기에는 3 ~ 26 페이지가 표시되지 않습니다.


추천 문서.


Documents Similar To floor trading system.


선물 계약에 관한 서류.


주문 정보 (교환)


바닥 글 메뉴.


적법한.


소셜 미디어.


저작권 및 사본; 2017 Scribd Inc. 책 검색. 모바일 사이트. 사이트 디렉토리. 사이트 언어 :


확실합니까?


이 작업은 실행 취소 할 수 없습니다. 너 정말 계속하고 싶니?


이 목록을 삭제 하시겠습니까?


선택한 모든 항목이 목록에서 삭제됩니다.


이 책은 모든 목록에서 삭제됩니다.


우리가 생각하는 큐레이팅 된 타이틀은 & amp; # 39 사랑할 것입니다.


Floor Trader - FT.


'Floor Trader - FT'의 정의


거래소 바닥에서 거래를 자신의 계좌로 독점적으로 수행하는 교환 회원. 플로어 상인들은 상품 거래소 구덩이에서 "열린 외침"방법을 사용했지만, 이제는 대부분 전자 거래 시스템을 사용합니다. 그들은 선물, 옵션 또는 주식 거래를 위해 자신의 자본을 위험에 빠뜨림으로써 상품 및 주식 시장에서 중요한 역할을 수행함으로써 유동성을 제공하고 입찰가 스프레드를 좁 힙니다.


아래로 '바닥 상인 - FT'


플로어 상인은 교환을하기 전에 심사 과정을 거칩니다. 국가 선물 협회 (National Futures Association)는 플로어 상인 신청자에게 다음과 같은 서류를 제출하도록 요구합니다 : 양식 8-R은 온라인, 지문 카드, 거래 시장에서 개인이 거래 권한을 부여 받았음을 입증하고 환불되지 않는 신청비 $ 85를 지불했습니다.

No comments:

Post a Comment