본문 바로가기
책 리뷰

7장. 퀀트 투자와 알고리즘 매매. [리뷰]월가아재의 제 2라운드 투자 수업.

by 투자하는 아재 2023. 6. 22.
728x90
반응형

반갑습니다. 투자하는 아재입니다. 오늘은 저자 월가아재(최한철)님의 월가아재의 제2라운드 투자 수업. 7장. 퀀트 투자와 알고리즘 매매에 대해서 이야기하도록 하겠습니다. 제가 이토록 심도 있게 책을 시리즈로 리뷰하는 것은 책의 내용이 매우 좋다고 생각되기에 투자자들에게 많은 도움이 됐으면 하는 바람에서 입니다.

 사실상, 알고리즘 매매는 투자에 막 입문한 주린이의 영역은 아닙니다. 그러나 최근 개인 투자자를 위한 알고리즘 매매 및 퀀트 투자 관련 툴과 서비스가 많이 생겨나고 있고, 그중에는 잘못된 정보도 많기에 개괄적인 부분을 이해하는 기회로 삼으시면 될 듯합니다.

 알고리즘 매매나 퀀트라는 용어에 대해 업계나 학계에서 합의된 정의는 없습니다. 어떤 서적에서는 컴퓨터를 이용하면 알고리즘 매매, 수학 통계 모델을 사용하면 퀀트 매매라 분류하고, 이 둘을 서로 혼용하며. 퀀트 매매의 하위영역에 알고리즘 매매가 있다고도 합니다. 

 여기서는 알고리즘 매매나 퀀트의 정의를 컴퓨터, 수학, 통계 등의 방법을 사용하여 투자하는 모든 방법론으로 통일합니다. 세부적인 분류도 시간 기준으로 초단기, 단기, 중장기로 나누어 설명하기로 합니다.

 1. 100만 분의 1초로 승부하는 "초고빈도 매매"

 - 영어로 HFT(High Frequency Trading)의 약자로 이 분야에는 국가 대표급 코딩 스킬을 가진 소수만이 종사합니다. 매매당 투입 가능한 자금 액수인 자금 수용력(capacity)이 높지 않기 때문에 몇몇 승자가 대부분의 수익 기회를 독식하는 생태계입니다. 저자가 만난 HFT 트레이더는 전부 MIT 출신이거나 프로그래밍 대회 대상 또는 금상 출신이라고 합니다. 100만 분의 1초라도 빠른 쪽이 수익 기회를 가져가기 때문에 시간을 더 단축하기 위하여 가능한 모든 수단을 동원합니다.

 그러나 코딩 실력보다 더 큰 경제적 해자는 하드웨어와 인프라에 있습니다. 일반적으로 우리가 사용하는 인터넷의 광섬유 회선과는 달리, 초고빈도 매매로 유명한 미국의 시타델, DRW, 점프 트레이딩(jump trading) 같은 회사는 1000분의 1초, 찰나의 시간을 단축하기 위하여 시카고에서 뉴욕까지 극초단파 네트워크를 설치하고 직선거리를 확보하기 위해 중간에 위치한 건물을 인수하기까지 한다고 합니다. 또한, 최고로 빠른 컴퓨터 하드웨어를 구축하고, 병렬 계산을 하는 GPU를 활용하고, 개발자의 의도에 맞춘 동작을 위한 논리회로를 위해 FPGA 프로그래밍도 많이 쓰입니다. 이렇듯, 속도의 우위를 확보하기 위해 추가 비용이 들지라도 거래소와 서버의 물리적인 거리를 최소화하기 위한 콜로케이션(colocation)은 필수입니다.

 초고빈도 매매에서 시간 지평을 조금 더 길게 보면, 데이 트레이딩의 영역이 있습니다. 대중적으로 잘 알려진 페어 트레이딩(pair trading)은 과거 데이터에서 패턴을 찾아내고 그 패턴이 미래에도 반복될 것이라는 통계적 차익거래의 일종입니다. 일반적으로 백테스팅 서비스 등을 이용하는 알고리즘 매매도 이 영역에 속합니다. 하지만 알고리즘 방식은 매우 다양하기에 딱 이것이라고 정의하기는 힘듭니다. 대표적인 몇 가지를 살펴보면 아래와 같습니다.

 ARIMA 모델은 기본적으로 회귀분석과 시계열 분석 모델을 활용하는 방식입니다. 최근 인기를 얻고 있는 머신러닝도 가격 변화를 예측하는데 활용할 수 있습니다. 지도 학습에서 의사결정나무(decision tree)나 랜덤 포레스트(Random Forest)를 활용할 수 있으며, 그보다 상위 호환의 성과를 보여주는 LightGBM이나 XGBoost와 같은 알고리즘을 사용할 수도 있습니다. 딥러닝은 계산 속도라 느린 편이라 속도가 중요한 부분에서는 자주 쓰이지는 않지만, 최근 그 적용 분야를 조금씩 넓히는 추세입니다.  이런 단기 알고리즘 매매는 초고빈도 매매에 조금씩 잠식당하고 있습니다. 데이 트레이딩 알고리즘 매매는 초고빈도 매매만큼은 아니지만 매매 빈도가 높기에 매매 비용을 무시할 수 없습니다. 따라서, 초고빈도 매매 진입 및 체결 알고리즘의 도움 없이 예측 알고리즘만 사용한다면, 매매 체결 과정에서 여러 다른 초고빈도 매매 알고리즘의 먹잇감이 될 수밖에 없습니다. 각각의 매매 시 1센트와 같은 적은 푼돈을 빼앗기겠지만, 가랑비에 옷 젖듯이 누적되어 수익률에 큰 차이를 보이게 됩니다. 이에 일부의 알고리즘 매매회사는 이 문제를 해결하기 위해 다른 초고빈도 매매팀에 수익의 25~35%를 주고 체결과정을 위임하기도 합니다. 이는 자체적으로 매매하는 것보다 25~35%의 지불하는 게 높은 수익률이 나오기 때문입니다. 이에 초고빈도 매매 알고리즘의 위용을 간접적으로 느낄 수 있습니다.

 2. 퀀터멘털과 대안 데이터의 대두, "중장기 퀀트 투자".

 - 전통적으로 중장기 투자를 계량적으로 접근하는 방식은 '팩터 투자'가 대표적입니다. '팩터'라는 단어에서 알 수 있듯이, 팩터 투자란 특정 자산의 가격 변화를 팩터라고 불리는 여러 가지 요소로 분해해서 다루는 방식입니다. 팩터는 크게 경제 성장률, 이자율, 인플레이션 등 거시경제에 관련한 팩터와 가치, 변동성, 모멘텀, 퀄리티 등 스타일 팩터라고 불리는 두 가지로 나눌 수 있습니다. 

 한편, 중장기 투자에서 최신 트렌드는 퀀터멘털(Quantamental) 투자와 대안 데이터의 대두로 설명할 수 있습니다. 퀀터멘털은 재무제표, 현금흐름, 성장률 등을 애널리스트가 분석하는 전통적인 펀더멘털 투자에 대안 데이터를 이용한 통계적 방법론을 적용한 것입니다. 여기서 대안 데이터는 금융업계에서 전통적으로 사용해 오던 가격 정보나 재무 정보가 아닌 인공위성 데이터, 웹 트래픽 데이터, 헬스케어 데이터, 신용카드 체결 데이터등을 사용하여 시장을 예측하는 영역입니다.

 예를 들어, 미국의 월마트의 매출을 알려면 전통적으로는 매 분기 실적 발표를 참조했지만, 지금은 인공위성으로 월마트 주차장을 촬영한 데이터를 통해 차량방문 대수를 추적하여 미리 매출을 추정하고 이에 따라 포지션에 진입하는 방식을 채택할 수 있습니다.  
 추가로 인공위성 촬영 데이터를 이용하여 원유를 저장하는 오일 탱크가 수면에 잠긴 깊이(그림자 길이)를 가늠하여 오일 트레이딩의 시그널로 활용할 수도 있습니다. 심지어 위키피디아와 같은 온라인 백과사전의 조회수를 이용하는 트레이딩 시그널도 존재합니다.

 위의 대안 데이터들은 최근 들어 폭발적으로 성장하고 있습니다. 하지만, 이런 대안데이터를 활용하여 팩터화 시켜 중장기 투자를 하기 위해서는 값비싼 데이터는 물론이고 기본적인 팩터 데이터도 MSCI 바라(MSCI Barra) 같은 소스에서 많은 돈을 주고 구입해야 합니다. 또한 알파 시그널을 통한 포트폴리오를 운용하기 위해서는 상당히 많은 수의 종목을 담아야 합니다. 본인이 추구하는 알파 팩터를 제외한 부분을 잘 상쇄하여 '헤지'해야 하기 때문입니다. 이렇듯 대안 데이터를 이용한 중장기 투자는 많은 자금과 비용이 필요한 분야이기에 개인이 혼자 하기에는 한계가 있습니다.

 예를 들어, 뉴스 데이터 분석을 통해 특정 회사에 관한 기사 내용이 긍정적인지 부정적인지를 계산하는 센티먼트(sentiment) 모델을 알고리즘에 학습시켰다고 합니다. 이 모델을 통해 페이스북과 구글에 대한 신문 기사를 분석했더니 긍정적인 점수가 많이 나왔고 마침 주가도 상승하였습니다. 반면, 포드와 현대자동차에 관한 신문 기사를 분석했더니 부정적인 점수가 많이 나왔고 마침 주가도 하락했다고 합니다. 그렇다면, 이 센디먼트 모델이 보여주는 긍정, 부정의 결과에  따른 매매를 하면 무조건 성공적인 투자를 이어갈 수 있을까요?

 하지만, 성급하게 일반화할 문제는 아닙니다. 페이스북과 구글은 기술주인 반면, 포드와 현대차는 자동차를 제조하는 산업군으로 센티먼트 모델과 관계없이 산업에 따른 이벤트나 시각 변화가 결과에 영향을 미칠 수 있습니다.

 따라서, 동일 산업 내 종목 간 센터멘트 점수에 따른 결과를 확인하고, 산업이라는 팩터에서 오는 영향을 제하는 등의 검증을 해야 합니다.

 문제는 기본적으로 확인해야 할 팩터가 한두 개가 아니라는 것입니다. 거시경제 팩터부터 시작하여 모멘텀, 퀄리티, 사이즈, 변동성, 벨류 팩터 등 여러 분류가 있고 그 분류 안에 또 수많은 팩터가 존재합니다. 내가 새로운 대안 데이터나 아이디어로 새로운 팩터를 만들어 냈다 해도 널리 사용하고 있는 기존의 팩터를 무시하고 안일한 백테스팅을 한다면, 그 결과가 새로운 팩터 때문인지 기존의 팩터 때문이지 알 수 없게 됩니다. 여기서 잘 알려진 기존의 팩터를 리스크 팩터 또는 베타 팩터라 명칭하고 새로 리서치한 나만의 팩터를 알파 팩터라고 합니다.

잘 알려지지 않는 초과수익을 줄 수 있는 나만의 알파 팩터를 제대로 찾아내는 것은 정말로 많은 노력과 시간이 드는 쉽지 않은 일입니다.

 요즘 미디어를 보면, 잘못된 방법론에 퀀트라는 이름을 붙이는 경우를 쉽게 찾을 수 있습니다. 일부는 이러한 잘못된 퀀트 투자를 맹신하다가 자신의 시드를 잃곤 합니다. 물론, 제대로 된 알파를 찾기 위한 전문성을 쌓는 퀀트의 과정을 익히는 것은 쉽지 않은 일이지만, 적어도 잘못된 방법으로 자신의 소중한 시드머니와 시간을 허비해서는 안 될 것이기에 퀀트 투자와 관련해 주의할 점을 짚어보겠습니다.

 1) 백테스팅의 함정과 마법공식의 허와 실.

- 요즘 대중적으로 유행하는 퀀트 투자의 근간은 과거 데이터에 기초하여 여러 재무 지표나 전략을 검증해 보고 수익률이 높게 나오면 그 전략을 그대로 재현하여 사용하는 "백데스팅"입니다. 결론부터 이야기하면, "백테스팅" 방식은 너무 오남용 되고 있습니다.

 백테스팅은 특정 전략 아이디어에 대해 충분한 리서치를 하고, 다른 여러 가지 계량적 툴과 통계적 방법론들을 활용하여 그 가설을 최대한 검증한 후, 마지막에 돌려보는 것입니다. 따라서 백테스팅은 이미 로직을 탄탄하게 쌓은 전략을 마지막에 검증하기 위한 용도로, 좋은 전략을 찾아내기 위해 마구 돌려보는 방법이 아닙니다. 그렇기에 백테스팅은 적게 할수록 좋습니다.

 이 분야에서 가장 유명한 전략 중 하나가 조엘 그린블랫(Joel Greenblatt)의 마법공식(Magic Formula)입니다. 그린블랫에 관해 이야기하면 세 가지 정도로 요약할 수 있습니다.

 첫째, 그의 마법공식은 현대적 의미의 퀀트 전략이 아닌, 종목 선정 룰에 해당합니다. 그만큼 시대가 많이 변했다는 것을 인지해야 합니다.

 둘째, 정작 그의 헤지펀드였던 고담자산운용은 특수상황 펀드(Special Situation Fund)로 실제 마법공식만으로 투자하지 않고 다양한 전략을 구사했습니다.

 셋째, 마법공식이 공개된 이후 백테스팅을 해보면 실적이 형편없습니다.

 동전 10개를 수없이 던지다 보면 1024분의 1의 확률로 10개 전부 앞면이 나오는 경우가 생기는 이치와 마찬가지로, 백테스팅도 무제한으로 수없이 하다 보면 확률적 우연에 의해 10년 연속 수익을 낸 전략이 끊임없이 나올 것입니다. 이 오류는  P-해킹(P-hacking)이라 불리는데, 제대로 된 퀀트라면 결과치가 '확률적 우연'에 의해 좋게 나온 백테스팅인지를 항상 의심해야 할 것입니다. 이렇듯 확률적 우연과 제대로 된 인과 관계를 구별하는 것은 퀀트 리서치의 가장 중요한 부분입니다. 백테스팅을 자주 돌리면 돌릴수록, 확률적 우연이 인과 관계로 돌변하여 당신을 속일 여지가 늘어납니다. 따라서 명확한 논리가 없고 통계적인 검증도 거치지 않은 전략에 대한 의미 없는 백테스팅은 최소화해야 합니다.

 2) 알파, 베타, 스마트 베타의 차이.

 - 퀀트 투자를 공부하며 백테스팅을 하는 근본적인 이유는 시장의 수익률에 만족하지 못하기 때문일 것입니다. 우리가 시간을 소비하여 공부하고 연구하여 투자한다면, 그 목적은 당연히 시장 수익률보다 높은 초과수익을 내기 위함일 것입니다. 여기서 이 초과수익을 알파라 부르고 시장 수익률을 베타라 부릅니다.

 여기서 알파, 초과수익은 대중적으로 사용되지 않는 참신한 데이터, 새로운 정보, 독창적인 전략에서 나옵니다.

  어느 회사의 호재 또는 악재를 누구나 다 알고 있다면, 그것은 이미 주가에 반영되어 있다는 것입니다.

누구나 다 아는 우량 종목은 이미 가격이 높고,
누구나 다 아는 전략은 지속적인 초과수익을 만들어내지 못하며,
누구나 다 아는 목 좋은 상권은 권리금이 비싼 것은 상식입니다.

 팩터 투자의 관점에서는 참신한 팩터를 '알파 팩터'라고 합니다. 반면, 누구나 다 아는 팩터를 '베타 팩터'라고 합니다. 한편, 과거에는 참신한 알파 팩터였지만 이제는 대체로 잘 알려진 모멘텀 팩터, 벨류 팩터, 변동성 팩터, 사이즈 팩터 등을 '스마트 베타 팩터'라고 부릅니다. 

 우리가 퀀트를 통해 꾸준한 초과수익을 내기 위해서는 끊임없이 알파를 추구해야 합니다. 독창적인 아이디어와 참신한 데이터를 연구하면서 새로운 가설을 세우고, 그 가설을 여러 통계적이고 계량적 방법으로 검증하며, 최종적으로 백테스팅을 통해 검증을 완료해야 하는 것입니다. 이러한 백테스팅을 통해 검증이 완료된 퀀트는 실전에서 반복해서 사용해야 합니다. 그 어떤 알파도 시장에 전파되어 널리 알려지면 점점 베타로 변해버리기 때문입니다.

 같은 맥락에서 시중에 이미 잘 알려진 팩터를 선택하여 백테스팅할 수 있도록 만들어 놓은 툴이 추가 수익을 위한 퀀트에 부정적인 것인지 명확히 이해할 수 있을 것입니다. 누구나 다 아는 팩터는 베타 팩터 또는 스마트 베타 백터입니다. 이러한 베타 팩터나 스마트 팩터의 조합으로 초과수익을 꾸준히 낼 수 있는 알파 팩터일 가능성은 높지 않습니다. 괜찮은 조합을 찾으려고 수없이 많은 백테스팅을 하다 보면 필연적으로 P-해킹이나 과최적화 문제가 발생하기 때문입니다.

 물론, 그렇게 하더라도 코로나 시기 때처럼 시장의 상황이 좋으면 돈을 벌 수 있습니다. 주식시장은 확률의 영역이기 때문에 좋은 전략도 손실을 볼 수 있고 좋지 않은 전략으로도 수익을 낼 수 있습니다. 하지만, 이길 확률이 낮은 음의 기댓값에 배팅을 하다 보면, 한두 번은 이길 수 있을지 몰라도 결국, 필연적인 손실을 마주해야 할 것입니다.

 그렇다고 널리 알려진 시장의 백테스팅 툴이 전부 무용한 것은 아닙니다. 앞에 언급한 툴은 자유도가 제한되어 있는 툴에서 제공되는 팩터들의 조합만으로 백테스팅을 하는 경우를 말합니다. 본인만의 데이터를 업로드할 수 있거나, 일정 수준의 코딩을 통해 스스로 짠 고유의 로직을 백테스팅하도록 만들어 놓은 경우 얼마든지 효용이 있을 수 있습니다.

728x90

 3) 수익률의 함정.

 - 그렇다면 좋은 전략과 나쁜 전략을 판가름하는 기준이 무엇일까요? 이는 비단 퀀트 투자뿐 아니라 가치투자나 단타 트레이딩을 비롯한 모든 종류의 투자 철학과 투자 전략에 공통으로 해당하는 주제입니다. "초과 수익을 최대화하는 원리, 가치투자"편에서도 언급했지만 단순 수익률이 아닌, 리스크 대비 수익률을 표시해 주는 대표적인 지표인 사프지수를 주목해야 합니다. 사프지수는 무위험 이자율을 초과하는 수익률을 수익률의 변동성으로 나눈 값이므로, 충분히 리스크를 생각 못하는 단순 수익률 비교에서 오는 병패를 교정할 수 있습니다.

샤프지수 수식

 2020년 ARKK라는 ETF를 운용하는 아크인베스트(ARK Invest)의 "캐시 우드(Cathie Wood)는 테슬라의 주가 상승을 예측하여 일약 스타덤에 올랐고, 많은 자금이 해당 ETF로 몰렸었습니다. 그런데, 책의 저자 "월가 아재"님이 ARKK의 성과를 샤프지수로 계산했더니 같은 기간 나스닥의 ETF인 QQQ보다 오히려 조금 더 낮은 것으로 나타났다고 합니다. 따라서, 단지 리스크(변동성)가 3배 정도 높아서 수익률도 더 높았던 것입니다. 아니나 다를까, 2022년 들어 나스닥이 25% 폭락하는 사이 ARKK는 70% 이상 폭락하는 사태가 벌어졌습니다.

  4) 샤프지수와 소르티노지수

 - 그렇다면 샤프지수로 리스크 대비 성과를 완벽히 설명할 수 있을까요?

 앞의 샤프지수의 수식에서 리스크에 해당하는 분모의 변동성을 보면, 위로 튀는 것과 아래로 튀는 것을 똑같이 취급하는 것을 알 수 있습니다.

 상식적으로 우리는 포트폴리오의 가치가 급락하는 것을 두려워해야 하고 급등하는 것은 반겨야 합니다. 이러한 점을 보완하기 위한 성과 지표가 "소르티노지수(Sortino ratio)"입니다. 분모에 전체적인 변동성 값을 넣는 샤프지수와 달리 소르티노지수는 손실이 나는 날에 대해서만 변동성을 계산합니다.

 분모가 아닌 분자의 수익률도 살펴보면, 당신의 투자 전략이 순매수와 공매도를 병행하는 롱숏 에퀴티(Long-Short Equity) 타입의 전략이 아닌, 대다수의 개인 투자자와 같은 주식을 매수만 하는 롱온리(long-only) 전략이라면 당신의 수익률은 시장의 수익률에 큰 영향을 받게 될 것입니다. 시장이 상승할 때 당신의 샤프지수도 덩달아 높아지고 시장이 하락할 때 당신의 샤프지수도 덩달아 낮아질 것입니다. 따라서, 본인이 투자를 잘해서 샤프지수가 높은 것인지 시장이 좋아서 높은 것인지를 구분하기가 매우 힘들어집니다. 

 이렇듯 시장의 흐름에 자신의 포트폴리오가 많은 영향을 받는 투자 전략의 경우, 샤프지수와 병행하여 앞에 3부에서 설명했던 정보 지수를 사용하는 것이 좋습니다. 정보 지수는 단순 수익률이 아닌, 벤치마크 대비 수익률을 분자에 두고 그 벤치마크 대비 수익률의 변동성을 분모에 두는 성과 지표이기 때문입니다.

 하지만, 샤프지수, 소르티노지수, 정보 지수 모두에서 공통적으로 발견되는 테일 리스크(tail risk)라는 맹점이 있습니다. 테일 리스크란 극히 낮은 확률로 발생하는 극도로 높은 손실을 안겨주는 이벤트를 의미합니다. 앞의 2부. 투자에서 이기기 위한 세 가지 공리 편에서 이야기했던, 마팅게일 베팅 방식을 기억할 것입니다. 매우 높은 확률로 투자 대비 적은 금액을 벌지만, 지극히 낮은 확률로 모든 것을 잃어버릴 수 있는 방식 말입니다. 이런 특성을 가지는 마팅게일 베팅과 비슷한 전략의 경우, 평소의 샤프지수는 굉장히 높게 나오지만 실제로는 굉장히 큰 리스크를 끌어안고 있는 것입니다. 이에 해당하는 실전 전략으로는 극외가 풋옵션 판매가 있습니다.

 극외가 풋옵션 판매의 경우, 평소 주식이 극외가까지 폭락하는 사태는 흔하게 일어나지 않기 때문에 꾸준히 작은 프리미엄에 대한 수익을 벌게 되지만, 단 한 번이라도 평균치에서 크게 벗어나는 가격 하락이 오면, 평소 작은 프리미엄으로 번 돈의 수십, 수백 배까지 잃게 됩니다. 물론, 그런 사태가 벌어지기 직전까지도 샤프지수는 엄청나게 높을 것입니다.

 만일 과거 데이터가 굉장히 많은 전략이라면, 최대하락폭(maximum drawdown, MDD)과 같은 지표를 통해 테일 리스크를 잡아낼 수 있습니다. MDD란 과거 하락 폭 중 가장 큰 손실을 의미하는데, 수익률에서 무위험 이자율을 뺀 후 MDD로 나눈 성과지표인 칼마지수(Calmar ratio)를 활용할 수 있습니다. 하지만, 대부분의 전략에서 테일 리스크를 제대로 잡아낼 만큼의 긴 시계열 데이터를 확보하는 것은 사실상 불가능에 가깝기 때문에 실전에서는 큰 도움이 되지 않습니다.

따라서, 샤프지수, 소르티노지수, 정보 지수, 칼마지수 모두가 리스크를 반영한 성과 지표라지만 그 자체만으로 만능은 아님을 명심하고 맹목적으로 믿어서는 안 될 것입니다. 

 업계에서는 이를 보완하기 위해 VaR(Value at Risk)라는 리스크 지표를 함께 사용합니다. VaR은 포트폴리오가 입을 수 있는 손실을 확률적으로 계산하는 방법론인데, 만약 포트폴리오의 1일 95% VaR이 1억 원이라 하면, 1억 원 이상 손실을 볼 확률이 5% 정도 된다고 해석할 수 있습니다. 그 확률 분포를 어떻게 추정하는가에 따라 과거 데이터나 몬테카를로 방법론, 모수적 방법(parametric method)등을 사용하는데, 어느 방법이든 추저이기에 제각각 한계와 장단점이 있을 수밖에 없습니다. 따라서 이러한 수치적 지표들 외에, 본인의 전략에 대한 다방면의 정성적 분석이 뒷받침되어야 한다는 사실을 반드시 명심해야 할 것입니다.

 5) 대가들의 샤프지수

 - 그렇다면, 일반적으로 어느 정도의 샤프지수가 훌륭한 수치일까요?

기간(년) 투자자 연평균 수익률(%) 변동성(%) 샤프지수 정보지수
1977~ 2016 워런 버핏 17.6 23.6 0.74 0.49
1977~1990 피터 린치 20.8 21.2 0.98 1.78
1993~2010 피트 뮬러의 PDT 파트너스 10.4   3이상  
1988~ 짐 사이먼스의  메달리온 펀드     4이상  

 참고로 버핏의 기준 기간인 1977~2016년의 S&P500 지수의 샤프지수는 약 0.45였습니다. 그런데 버핏과 린치의 샤프지수는 1이 채 안 되는 것을 볼 수 있습니다. 반면, PDT 파트너스를 운용한 피트 뮬러(Pete Muller)의 샤프지수는 무려 3이 넘었고 짐 사이먼스의 메달리온 펀드는 1990년대 4 이상이었다가 2000년대에는 그보다 훨씬 더 높은 수치를 기록했다고 합니다.

그렇다면, 워런 버핏이 세계 최고의 투자자자라는 것은 과장된 것일까요?

 결론적으론, 전혀 그렇지 않습니다. 먼저 샤프지수를 비교할 때는 동일한 전략군끼리 비교해야 합니다. 전략별로 시간 지평과 자금 수용력이 다르기 때문입니다. 초고빈도 매매의 경우 투입 자금 대비 수익률이 매우 높고 수익을 내지 못하는 날이 거의 없지만 자금의 수용력이 낮아 투입 자금에 제한이 있습니다. 또한, 인프라 비용과 개발 인건비 등이 매우 높기 때문에, 매매 성과의 샤프지수가 높아도 이러한 추가적인 비용까지 포함하면 적자를 보는 경우도 많습니다.

 그런 맥락에서, 일반적으로 시간 지평이 짧고 자금 수용력이 낮은 단타 매매를 하는 트레이더일수록 샤프지수가 높고, 대규모의 자금으로 중장기로 투자하는 버핏이나 린치가 상대적으로 샤프지수가 낮을 수밖에 없습니다. 

따라서, 샤프지수는 동종 전략 간에 의미가 있는 것입니다.

  그렇기에, 위의 대가들의 샤프지수를 나타내는 표만으로는 누가 더 실력이 좋은지 정확히 알 수 없습니다.

 이렇듯 누군가의 투자 성과를 측정한다는 것은 단순한 것이 아닙니다. 따라서, 본인이 개발한 전략의 성과를 제대로 측정해야만 하는 퀀트 투자의 경우, 샤프지수와 정보지수, 소르티노지수 등의 다양한 성과 지표들을 제대로 이해하고 다각도에서 성과를 평가하고 검증해야 할 것입니다.

 앞의 내용을 이해했다면, 백테스팅을 먼저 해서 전략을 찾으면 안 되는 것을 알았을 것이고, 알파와 베타의 차이도 이해했고, 성과를 측정하는 지표도 이해했을 것입니다.

 그렇다면 이제 퀀트 투자로 뛰어들어도 되는 것일까요?

 퀀트 투자에서 가장 걸림돌이 되는 것은 바로 "데이터"입니다. 

 퀀트 투자에 적합한 수준의 데이터를 얻는 것은 생각처럼 쉽지 않습니다. 혹자는 야후 파이낸스나 구글 API를 통해 무료 데이터를 다운로드하거나 웹 스크래핑(web scraping)을 하면 된다고 생각할 수 있지만, 실제로는 큰 도움이 되지 못합니다. 단순한 오류는 코딩으로 어느 정도 걸러낼 수 있겠지만, 금융 데이터를 깊게 제대로 클리닝 하는 것은 주관이 들어갈 수밖에 없습니다. 

 트레이터의 실수로 1만 원하는 A 주식을 잘못하여 1천 원에 매도가 들어갔다고 가정해 봅시다. 이런 경우가 드물 것 같지만 현실에선 생각 보다 자주 있는 일로 'Fat Finger'란 용어가 있을 정도입니다. 그렇다면, A주식의 저점을 1천 원으로 해야 할까요? 아님 1만 원으로 해야 할까요? 저가와 고가를 참고로 하는 퀀트 알고리즘의 경우, 이 부분은 굉장히 큰 문제가 될 것입니다. 실제 1천 원은 직접 거래될 수 없는 가격임에도 실제 거래가 이루어진 것은 사실이기 때문입니다.
반응형
 재무제표 데이터에도 많은 문제가 있습니다. 자산 총계나 부채총계 같은 큰 숫자는 네이버나 야후의 데이터를 써도 무방할 수 있으나 더 세부적인 항목을 들여다보면 부족한 것이 매우 많습니다. 애초에 이러한 포털 사이트의 재무 데이터는 한국 기업은 DART(전자공시시스템), 미국 기업은 10-K(사업보고서)에서 추출하는데, 정해진 목차 항목에서 추출한 값에 오류가 있는 경우는 거의 없지만, 운용 리스(operating lease)나 연구비와 같은 주석이나 별도 목차를 참고해 보정해야 하는 항목은 생각보다 수작업이 많이 필요합니다.
 세부 항목까지 잘 정리된 양질의 데이터를 구하려면 S&P캐피털 IQ나 블룸버그와 같은 연간 이용료가 수천만 원에 이르는 서비스를 이용해야 하는데 개인 투자자가 사용하기에는 무리가 있고, 돈을 내고 서비스를 이용하더라도 여전히 수작업으로 보정해주어야 합니다. 저 개인적으로도 재무제표에 오기된 부분을 발견했고, 이를 해당 IR담당자에게 문의했던 경험이 있습니다.

 이 외에도 백테스팅을 하기 위해서는 생존자 편향(survivoi-ship bias) 문제도 해결해야 합니다. 생존자 편향이란 현재 시점에 생존한 회사만으로 백테스팅을 할 경우, 암묵적으로 자신에게 '망할 회사를 미리 알 수 있다'라고 가정하는 효과가 나는 것을 의미합니다. 예를 들어, 현재 코스피에 상장된 회사 중에서 내가 원하는 조건에 맞는 회사를 매수하는 전략을 백테스팅한다고 하면, 이때 과거 코스피에 상장되었다가 상장 폐지된 회사는 그 전략의 매수 범위에서 자동으로 제외되어 버립니다. 그러나 실제로 신이 아닌 이상 상장 폐지 종목을 잔부 피해 가며 투자할 수는 없을 것입니다. 따라서 이 전략의 백테스팅 성과는 필연적으로 뻥튀기가 됩니다.

 비슷한 문제로 미래 선지 편향(look-ahead bias)이 있습니다. 생존자 편향을 좀 더 현실화한 개념으로 백테스팅을 행하는 시점에서는 알고 있지만, 과거 시점에서는 몰랐을 경우를 이용하여 전략을 짜는 경우입니다.

 예를 들어 2021년 코스피 기준 시가총액 상위 100위에 있는 종목 중에서 PER이 15 미만인 주식을 매수하는 전략으로 2011~2021년을 백테스팅했더니 굉장히 수익률이 높았다고 합시다.

 여기서의 문제는 2011년에 2021년의 코스피 상위 100위 종목을 알고 있다고 가정하고 있는 것입니다. 

 또한, 뉴스 데이터를 이용한 센티먼트 모델로 데이 트레이딩을 한다면, 그 뉴스 데이터가 몇 시에 입수되었는지를 고려하여 그 시각 이전에는 해당 시그널로 매매할 수 없도록 설정해야 합니다.

 더 어려운 문제가 있습니다. 내가 직접 데이터의 질을 컨트롤할 수 없는 경우, 외부의 대안 데이터를 사용할 수밖에 없다면, 앞에서 언급했듯이 이미 잘 알려진 대중적 정보나 데이터를 사용하는 것은 베타 팩터에 가깝기 때문에 진정한 초과수익을 내기 위해서는 알파와 같은 참신한 데이터나 방법론을 사용해야 합니다. 이를 위해 새로운 대안 데이터를 구입하여 전략을 짠다고 가정하겠습니다.

 각 회사가 "구인 공고를 몇 개나 내는지"에 대한 데이터를 가지고 그 회사의 내부 사정을 유추하고, 이를 통해 매매하는 전략을 쓴다고 합시다. 즉, 구인공고가 급증하면 회사 내부 실적이 괜찮으리라는 추정을 하여 매수하고, 급감하면 매도하는 방법입니다. 이를 위해 구인 공고 사이트에서 과거 데이터를 구입했는데, 그 사이트가 2014~2018년의 데이터 양이 2018~2022년의 데이터 양의 절반만 가지고 있다고 가정합니다. 이러한 경우 우리는 결측치를 보정(data imputation) 하기 위해 2018~2022년의 수치를 2014~2018년에 소급하여 적용할 수도 있을 것입니다. 만약 내가 이 데이터에 그런 가공이 더해졌다는 사전 지식 없이 이 데이터를 퀀트 전략에 사용하면 "선지 편향"이 생기게 되는 것입니다. 

 물론, 그러한 문제에 대해 데이터를 제공해 주는 업체로부터 전해 듣고 조정할 수도 있지만, 현실에서 그런 문제를 해당 업체가 선제적으로 알려주는 경우는 매우 드물며, 기존 데이터에서 2차, 3차로 가공한 데이터를 받을 경우 이를 일일이 체크하는 것은 매우 어려운 일입니다.

 그렇다면, 통계적으로 유의미하다는 것은 무엇일까요?

 대한민국에 대해 잘 알지 못하는 외국인 B가 대한민국 남성의 평균 키를 가늠한다고 해봅시다. B가 처음 만난 남성의 키가 188cm였다고 해서 대한민국의 남성의 평균키를 188cm라 생각해서는 안될 것입니다. 그래서 두 명을 더 만나 평균키를 구했더니 180cm였다고 하면, 이것을 대한민국 남성의 평균키라고 생각해도 될까요? 부족할 것입니다. 그렇다면, 30명의 평균은? 1,000명의 평균은?

 통계적 추정이라는 것은 대한민국 남성 전체라는 모집단에 대한 정확한 값을 모를 때 일부를 샘플링하여 모집단을 추정하는 것입니다. 당연히 샘플이 늘어날수록 더욱 정확한 통곗값을 도출할 수 있는데, 이때 샘플을 통해 내린 추론을 얼마나 믿을 수 있는지를 오차 범위라는 개념으로 명시합니다. 우리가 선거 개표 방송에서 후보자의 지지율과 오차 범위를 같이 표시하는 것을 생각하면 이해할 수 있습니다. 물론, 시간이 흘러 개표수가 늘어나면, 샘플링이 많아져서 오차 범위는 줄어들어 결국 당선이 확정 됩니다.

 퀀트 투자의 본질은 한정된 기간의 한정된 샘플을 활용하여 모집단을 추정하려고 노력하는 것입니다. 당연히 데이터가 많을수록 더 정확하게 추정할 수 있습니다. 물론 시간 지평이 짧은 초고빈도 매매나 단타 데이 트레이딩의 경우 이미 퀀트 알고리즘이 지배하고 있지만, 시간 지평이 긴 중장기 투자에는 아직까지 애널리스트나 펀드매니저와 같은 인간이 주로 담당하고 있는 이유입니다.

 분기별로 발표되는 재무 데이터는 1년에 4개, 10년 치를 보아도 40개밖에 안 됩니다. 반면, 일봉 주가 데이터의 경우 1년에 시장개장일인 250여 개가 될 것이고 10년에 2500여 개가 될 것이며, 시봉은 10년에 2만 개, 분봉은 120만 개나 확보될 것입니다. 따라서, 이렇게 데이터가 많으면 복잡도가 높은 모델을 사용할 수 있고 여러 가지 다양한 통계적 분석도 유의미하게 할 수 있습니다. 따라서, 분봉과 시봉을 활용하는 트레이딩에서 통계 알고리즘은 유의미성을 확보하기가 비교적 쉬워집니다. 

 그렇다면, 단순히 데이터의 개수만 많다고 해서 통계적 유의미성이 확보될까요?

 그렇지 않습니다. 데이터의 개수의 유의미성이 확보되기 위해선, 동일한 분포에서 나오는 데이터여야만 합니다. 예를 들어 대한민국 남성의 평균 키를 알려고 하는데 1950년대에 10개, 1980년대에 30개, 2020년대에 15개의 데이터를 모았다면 이 데이터들을 활용하여 유의미성을 확보할 수 있을까요? 영양이 부족한 과거대비 현재 대한민국 남성의 키는 꾸준히 성장해 오다 최근에 정체되었습니다. 따라서 시간대가 다른 데이터를 가지고는 정확한 결론을 도출할 수 없습니다.

 금융시장은 사람의 키 변화와는 비교할 수 없을 만큼 시간의 흐름에 따라 성질이 크게 변합니다. 특히, 금융위기나 코로나 19와 같은 이벤트가 발생되면 시장 참여자의 구성과 성질까지 변화하면서 이전 데이터로 학습된 전략이 전부 망가지는 결과가 나올 수 있습니다. 이를 '시장 체제 변화'라고 하는데, 산전수전을 다 겪은 월가의 퀀트도 이러한 문제로 고심한다고 합니다.

 실제로 코로나19가 터진 직후 수많은 퀀트 펀드가 큰 손실을 기록했습니다. 업계의 유명 퀀트 중 하나인 프레이저 젠킨스(Inigo Fraser Jenkins)는 "왜 나는 더 이상 퀀트를 하지 않는가?( Why I am longer a quant)"라는 기고문을 통해 백테스팅의 한계와 평균회귀 의존에 대해 신랄한 비판을 쏟아냈습니다. 이와 같은 시장 체제의 변화에도 시간 지평에 따른 알고리즘의 효용이 달라지게 됩니다.

 앞에서 언급한 연 4개의 분기 재무 데이터와 펀더멘털 분석의 경우, 통계적 유의미성을 조금이나마 확보하기 위해 10년, 20년 치의 데이터를 활용하다 보면 현재와 전혀 특성이 다른 과거 시장 체제의 데이터까지 사용할 수밖에 없습니다.

 이쯤 되면 단순하게 PER, PBR 같은 팩터를 넣고 10년 치 백테스팅을 넣어 만든 전략에 내 피 같은 목돈을 투입해서는 안 되는지 그 이유를 명확히 깨달았을 것입니다.

 지금까지 언급한 퀀트에 대한 여러 가지 주의점과 어려움을 알고도 퀀트 투자자가 되겠다고 한다면, 저자는 4가지를 당부하고 싶다고 합니다.

 첫째, 퀀트도 자기 절제력이 필요합니다. 여기서 절제력이란 무분별한 백테스팅을 하지 않는 것은 물론이고 실전에서 전략을 사용하는데 리스크를 관리해야 하는 것을 의미합니다. 퀀트라고 해서 모든 것이 자동화되고 수학적으로 최적화되는 것은 아닙니다. 결국, 퀀트도 리서치를 하는 주체의 주관이 많이 들어갈 수밖에 없고 일부는 수동으로 할 수밖에 없습니다. 그렇기에 매 순간 합리적인 판단을 위해 맑은 정신을 유지하며 자신을 절제할 줄 알아야 합니다.

 둘째, 비퀀트적 언어로 본인의 전략을 명료하게 설명할 수 있어야 합니다. 빅데이터, 패턴인식, 백테스팅, 인공지능, 딥러닝등의 거창한 용어가 아닌 일상적인 언어로도 "내가 선택한 전략이 어떻게 상식적으로, 경제학적으로 초과수익을 가져다줄 수 있는지"를 잘 설명할 수 있어야 합니다. 만약 이것이 불가능하다면, 그저 데이터를 뒤져서 입맛에 맞는 조합을 찾아내는 P-해킹이나 이런저런 데이터를 기웃거리는 데이터 스누핑(data snooping)을 하고 있을 확률이 높다고 합니다.

 셋째, 퀀트 리서치를 통해 '검증'된 전략은 '성과가 좋을 것이라고 증명된 전략'이 아니라 '성과가 나쁠 것이라고 증명하지 못한 전략'에 불과하다는 것입니다. 매 순간 본인의 전략을 여러 각도에서 의심해야 하는 이유입니다. 지나치게 좋은 결과가 나온다면 더욱 의심해야 합니다. 매매 비용에서 수수료나 불리한 가격에 체결하는 슬리피지(slippage)를 너무 느슨하게 설정한 것은 아닌지, 실전에서 생길 수 있는 유동성의 문제를 고려하지 못한 것은 아닌지, 전략의 변수, 파라미터를 조금 바꾸어도 수익률은 유지되는지 등을 체크해야 합니다. 매매 타이밍이 월말 리밸런싱이라면, 그 전날인 29일로 바꾸어도 수익률이 유지되는지 등을 체크하는 식으로 전략의 파라미터를 조금씩 조정해 보는 것을 잊지 말라고 합니다. 파라미터의 작은 변화로 수익률이 급변한다면, 과거 데이터에 과최적화되어 있을 수 있습니다. 여기서 과최적화란 과거에는 잘 맞았으나 현재에는 유의미성이 없는 것을 뜻합니다. 따라서, 추가로  다양한 외생적 이슈나 이벤트, 쇼크등에 대한 가정과 통계적인 노이즈도 추가해 보는 것이 좋습니다.

 넷째, 무엇보다 퀀트의 한계를 직시하고 겸손해야 합니다. 물론 계량적인 사고방식은 투자자에게 매우 중요한 요소이지만, 퀀트 투자를 너무 쉽게 생각하고 어설픈 백테스팅에 기초하여 투자하는 것은 단순히 시간을 낭비하는 것을 넘어, "나는 과학적인 투자를 하고 있다"는 잘못된 자긴 감을 심어줄 수도 있습니다. 그리고 이러한 자시감은 과도한 레버리지와 리스크로 이어지면서 큰 손실을 입힐 수 있습니다.


 여기까지의 내용만 보면, 퀀트가 너무 어렵게만 느껴질 것입니다. 이전의 글에서 언급한 가치투자도 쉽지 않고 차트 매매도 한계가 있어 보이고 "내가 어떻게 해야 할 것인지 저절로 한숨이 나올 것입니다". 

 하지만, 금융 전쟁터인 주식시장에서 남보다 돈을 더 많이 버는 것은 원래 어려운 일입니다. 주식시장에서 수익을 꾸준히 내는 것은 불가능한 것은 아니지만 일부 전문가들의 말처럼 쉬운 일은 아닙니다. 

초과수익을 내기 위해선 시간을 투자해서 제대로 공부해야 합니다.

 

 그렇다고 그 과정이 사법고시만큼 어려운 것은 아닙니다. 워런 버핏이나 피터 린치와 같은 대가들의 성과를 내지는 못하겠지만, 적당히 리스크를 조절해 가면서 만족할 수 있는 투자를 하는 것은 서울대를 가기 위한 수준도 아닙니다. 그저 수능 공부에 쏟았던 시간의 10분의 1만 할애하더라도 개인 투자자중에서는 최상권이 될 수 있다고 합니다.

 이 말은 그만큼 진지하게 공부하는 개인 투자자가 이상하리만치 드물다는 것입니다.

 많은 사람들이 돈을 버는 것을 인생의 최고 우선순위로 두면서 그에 대한 노력은 다른 분야에 비해 훨씬 덜 쏟습니다.  제대로 된 공부를 하려고 해도 제대로 된 지침서를 찾지 못해서 일수도 있고, 열심히 공부했다 해도 그 노력이 시장의 변동성에 가려져 가시적으로 나타나지 않아서일 수도 있습니다. 그러나 앞의 글 1부에서 언급했듯이 

 노력은 단기적인 변동성이 가려질 수 있으나 장기적으로 쌓이면 조금씩 변화가 체감됩니다.
 올바른 방향으로 시장의 본질을 바라보며 정석적인 공부를 해나간다면 경제적 자유를 향한 길은 누구에게나 열려 있으리라는 생각을 합니다.

 

 끝으로 제가 이 책을 이렇게 세심하게 리뷰하는 것은, 책의 내용이 너무나 도움이 되는 것들이기에 투자에 진심인 투자자들과 공유하고자 함입니다. 

여러분의 성투를 기원합니다.

728x90
반응형

댓글