quinta-feira, 18 de maio de 2017

A Prática da Análise Técnica

Livre tradução de parte do texto “Technical Analysis: Modern Perspectives
Por Gordon Scott, CMT; Michael Carr, CMT; Mark Cremonie, CMT, CFA

A análise técnica sempre se concentrou na aplicação prática, com os analistas técnicos mais focados no que funciona do que no motivo de uma determinada estratégia funcionar. Esta distinção tem sido verdade desde que Charles Dow, informalmente conhecido como o “avô da análise técnica”, escreveu editoriais no Wall Street Journal que se tornaria a base da teoria Dow, uma ferramenta de tendência que ainda é amplamente utilizada.

A teoria de Dow foi desenvolvida nos anos 1900s e é derivada unicamente das ideias de Dow na relação entre os preços de ações e a economia. A teoria Dow criou médias para rastrear os preços de ações de empresas ferroviárias e industriais para potencialmente observar pontos de virada (mudança de tendência) no ciclo de negócios. A teoria Dow fornece sinais de compra e venda quando ambas as médias estão se movendo na mesma direção. Dow acreditava que uma tendência importante na economia resultaria em grandes tendências no mercado de ações. Em um editorial de janeiro de 1902, ele explicou: “É um período de touro (bullish), desde que a média de uma máxima exceda a das máximas anteriores. É um período de urso (bearish) quando a mínima se torna menor que as mínimas anteriores”. Em um mercado altista (bullish) o mercado deverá continuar a subir e em um mercado em baixa (bearish) espera-se que o mercado continue a se mover para baixo. Em outras palavras, nesta análise, “touro” (bull) e “urso” (bear) não se limitam a caracterizar movimentos passados, mas também tendências exploráveis. A pesquisa recente (Dahlberg 2016) demonstrou que esta ideia simples entregou resultados consistentemente rentáveis ​​ao longo dos anos.

Embora a teoria de Dow seja bastante simples de implementar observando máximas mais altas e mínimas mais baixas, os analistas sempre quiseram bater o mercado por uma margem tão ampla quanto possível, levando a uma busca por maneiras de melhorar técnicas simples. Uma das primeiras abordagens quantitativas para investir foi definida por Robert Rhea em uma edição de 1933 da Barron's. Rhea foi também um estudante da teoria de Dow e foi o primeiro a coletar todos os editoriais de Dow e os de seu sucessor no Wall Street Journal, William Peter Hamilton, em um único volume publicado como The Dow Theory. Rhea também avançou o estudo do mercado com pesquisa original. Em um único artigo de meia página, Stock Habits: A Simple Method to Follow Issues That Fluctuate More Widely Than the Averages, Rhea descreveu como calcular um “índice de apreciação” para um grupo de ações. O índice de apreciação foi o retorno total das ações ao longo da vida de um mercado touro ou urso (bullish ou bearish). Ele mostrou que um grupo de ações com os maiores índices de valorização superou um grupo de ações de renda (boas pagadoras de dividendos) que ele criou para servir como referência. Seu teste foi simples pelos padrões modernos, mas parece ser o primeiro teste quantificado de força relativa (RS).

Em 1945, a força relativa (RS) fez sua primeira aparição em uma revista acadêmica quando H.M. Gartley, conhecido mais como um grafista do que como um analista quantitativo, introduziu ao mundo às velocidades estatísticas como uma ferramenta de investimento em um artigo no Analysts Journal:

Em primeiro lugar, é necessário selecionar uma média ou um índice para representar o mercado todo, como o índice de ações Standard & Poor's 90, o Dow-Jones 65-stock Composite ou uma medida mais abrangente. Ao rastrear o padrão de flutuação da média geral, as oscilações maiores são selecionadas (por inspeção) e os pontos máximos e mínimos sucessivos são então usados para calcular avanços e declínios em porcentagem. Embora a tendência geral do mercado possa fazer a escolha de menores movimentos viáveis, geralmente as variações selecionadas são aquelas de 10% ou mais. O próximo passo é calcular a percentagem comparativa de avanço ou declínio das ações individuais. E finalmente, o aumento percentual ou declínio da ação individual é dividido pelo movimento correspondente no índice base, e multiplicado por 100, para dar a “classificação de velocidade” da ação.

Os métodos de Gartley eram semelhantes à técnica de Rhea apresentada em Barron's. Gartley identificou as principais tendências altistas (bullish) e baixistas (bearish) dentro do mercado geral. Ele comparou o movimento de cada ação individual com o movimento do mercado geral durante cada período de tempo e calculou a velocidade de cada ação. Seu conceito de velocidade assemelha-se muito ao beta no modelo de precificação de ativos de capital (CAPM). Ele defendeu comprar ações com alta velocidade nos mercados altistas (bullish).

Após o trabalho de Gartley, a força relativa (RS) largamente desapareceu da literatura por três décadas até Robert Levy publicar “Relative Strength as a Criterion for Investment Selection”, no Journal of Finance em 1967. O trabalho de Levy foi objeto de uma grande crítica após a publicação e novamente a força relativa (RS) desapareceu da literatura por quase 30 anos. Em 1993, o conceito foi redescoberto como momentum quando o Journal of Finance publicou “Returns to Buying Winners and Selling Losers: Implications for Stock Market Efficiency”, por Narasimhan Jegadeesh e Sheridan Titman. Esse artigo demonstrou que o momentum pode ser usado para superar consistentemente o desempenho do mercado de ações.

As estratégias de negociação que compram vencedoras passadas e vendem perdedores passados realizaram retornos anormais significativos durante o período 1965-1989. Por exemplo, a estratégia que foi examinada mais detalhadamente, que selecionou ações com base em seus últimos 6 meses de retorno e as mantiveram por 6 meses, obteve um excesso de retorno médio composto de 12,01% ao ano. Evidências adicionais indicaram que a rentabilidade das estratégias de força relativa não se deve ao seu risco sistemático. Os resultados dos testes também indicaram que os lucros de força relativa não podem ser atribuídos aos efeitos lead-lag que resultam de reações atrasadas dos preços de ações a fatores comuns. A evidência é, contudo, consistente com o atraso da reação de preço para a informação específica de uma empresa.

Desde então, uma série de estudos acadêmicos têm demonstrado que a anomalia momentum funciona em mercados internacionais e sob uma variedade de condições de mercado. Momentum, ou força relativa, é uma ferramenta comumente combinada com outras técnicas de seleção, formando a base do que poderia ser chamado de “análise de fusão” (fusion analysis) Os analistas de fusão usam o que eles acreditam que funciona em seu processo de decisão de investimento, combinando análise técnica com análise fundamentalista, por exemplo. Asness (1997) e outros têm escrito sobre a combinação de técnicas de momentum e valor.

Momentum pode ser amplamente considerado como uma abordagem quantitativa para seguir tendências, uma estratégia de negociação projetada para se beneficiar de movimentos estendido do mercado. Esta aproximação é similar às ideias definidas na teoria de Dow, que gera sinais negociando somente depois que uma tendência está bem em curso. O trabalho de Dow também se ramificou no estudo dos ciclos, com base no interesse de Dow pelo trabalho do economista britânico William Stanley Jevons, que documentou um ciclo com duração de aproximadamente 10 anos em vários preços de commodities. Dow estendeu o conceito, argumentando que o ciclo de Jevons poderia ser dividido em dois períodos aproximadamente iguais de boom e queda na economia. Como o trabalho de Jevons se baseava principalmente na atividade das manchas solares, outros analistas de ciclo buscaram identificar ciclos de mercado baseados em fenômenos naturais. Famosamente, Ralph N. Elliott (das “ondas de Elliott”) e W. D. Gann desenvolveram teorias que ganharam popularidade e continuam a dominar alguns adeptos hoje. Atualmente, os analistas de ciclos utilizam ferramentas, incluindo a transformada rápida de Fourier (Sornette, Johansen e Bouchaud, 1996) ou análise espectral (Dyka, Dudojć e Garus, 2013).

Embora técnicas sofisticadas sejam cada vez mais utilizadas na prática da análise técnica, os analistas técnicos permanecem leais ao estudo dos gráficos. Desde pelo menos os anos 20, a análise de padrões gráficos tem sido largamente utilizada. No período antes dos mercados serem regulamentados pela Comissão de Valores Mobiliários dos Estados Unidos (SEC – Securities and Exchange Commission), os gráficos forneciam uma das poucas fontes de informações confiáveis disponíveis para os traders. Os padrões tornaram-se assuntos populares de análise como os traders procuraram sinais indicadores de manipulação do mercado, fato este que era comumente acreditado. O editor da Forbes, Richard Schabacker, catalogou uma série de padrões na Stock Market Theory and Practice, em 1930. Outros trabalhos se expandiram na identificação e uso de padrões, mas o primeiro teste objetivo de padrões parece ter sido publicado em 1995. Nesse ano, o Federal Reserve Bank of New York publicou “Head and Shoulders: Not Just a Flaky Pattern”.

Este artigo avalia rigorosamente o poder preditivo do padrão cabeça e ombros aplicado às taxas de câmbio diárias. Embora esses gráficos não-lineares sejam aplicados frequentemente por analistas técnicos, o artigo é um dos primeiros a avaliar o poder preditivo de tais padrões. Foi aplicada uma regra de negociação baseada no padrão de cabeça e ombros às taxas de câmbio diárias das principais moedas em relação ao dólar durante o período de taxa flutuante (de março de 1973 a junho de 1994). Foram identificados padrões de cabeça e ombros usando um algoritmo objetivo, implementado por computador baseado em critérios de manuais de análise técnica publicados. Os lucros resultantes, replicáveis em tempo real, foram então comparados com a distribuição de lucros para 10.000 séries simuladas geradas com a técnica bootstrap sob a hipótese nula de random walk (passeio aleatório).

Como resultado, foi observado que a regra de negociação de cabeça e ombros parece ter algum poder preditivo para a marco alemão e o iene, mas não para o dólar canadense, franco suíço, franco francês ou libra esterlina. No entanto, se houvesse especulado em todas as seis moedas simultaneamente, os lucros teriam sido estatisticamente e economicamente significativos. Tomados individualmente, os lucros nos mercados de ienes e marco alemão também são substanciais quando ajustados os custos de transação, diferenciais de juros ou risco. Estes resultados são robustos a mudanças nos parâmetros do algoritmo de identificação de cabeça e ombros, mudanças no período de amostragem e a suposição de que as taxas de câmbio seguem um processo GARCH (Generalized Autoregressive Conditional Heteroscedasticityem vez de um random walk. Esses resultados são inconsistentes com praticamente todos os modelos de taxas de câmbio padrão e poderiam indicar a presença de ineficiências de mercado.

Trabalhos subsequentes (Bulkowski 2005, por exemplo) chegaram a conclusões semelhantes. A análise de padrões pode gerar lucros significativos em algumas circunstâncias. Em parte, porque a análise de padrões não é consistentemente confiável, os analistas técnicos continuaram a procurar as ferramentas que poderiam melhorar seus resultados. Na busca por vantagens de negociação, analistas técnicos adicionaram análise de volume e amplitude ao seu trabalho. A busca de ferramentas mais poderosas acelerou quando os computadores simplificaram o processo de criação de novos indicadores, o que levou a mineração de dados (data miningem muitos casos.

A mineração de dados é outra crítica à análise técnica. Muitos indicadores e técnicas foram desenvolvidos pesquisando dados históricos de padrões. Por exemplo, um analista pode testar todos os comprimentos de média móvel de 1 dia a 10.000 dias para encontrar a média móvel mais rentável a ser utilizada (na verdade, a mais rentável para ser usada sobre o período passado testado). Eles podem então acrescentar condições adicionais, como uma segunda ou terceira média móvel. Como tantas variáveis ​​são testadas, os resultados não são um indicador confiável de desempenho futuro. Alguns resultados ruins são devido a testes estatisticamente falhos, e outros resultados são simplesmente o resultado de pura sorte. Por esta razão, o desempenho passado lucrativo não é tomado pelo valor nominal, mas sim avaliado à luz da possibilidade de que os lucros do back-test podem ocorrer por pura sorte. O problema de sorte de desempenho é especialmente pronunciado quando muitos métodos são back-tested e um melhor método é selecionado. Esta atividade é chamada de mineração de dados (data mining). Embora a mineração de dados seja uma abordagem promissora para encontrar padrões preditivos em dados produzidos por processos complexos, em grande parte aleatórios, como os mercados financeiros*, suas conclusões são tendenciosas. Este é o viés da mineração de dados. Assim, a rentabilidade dos métodos descobertos pela mineração de dados deve ser avaliada com testes estatísticos especializados projetados para lidar com o viés da mineração de dados.





Nos próximos artigos, comentaremos mais sobre análise técnica, como as pesquisas recentes sobre o tema e as aplicações modernas da análise técnica.

Nenhum comentário:

Postar um comentário