Livre
tradução de parte do texto “Technical
Analysis: Modern Perspectives”
Por Gordon Scott, CMT; Michael Carr, CMT; Mark
Cremonie, CMT, CFA
A
análise técnica sempre se concentrou na aplicação prática, com os analistas técnicos mais
focados no que funciona do que no motivo de uma determinada estratégia
funcionar. Esta distinção tem sido verdade desde que Charles Dow, informalmente
conhecido como o “avô da análise técnica”, escreveu editoriais no Wall Street Journal que se tornaria a
base da teoria Dow, uma ferramenta de tendência que ainda é amplamente
utilizada.
A
teoria de Dow foi desenvolvida nos anos 1900s e é derivada unicamente das ideias
de Dow na relação entre os preços de ações e a economia. A teoria Dow criou
médias para rastrear os preços de ações de empresas ferroviárias e industriais
para potencialmente observar pontos de virada (mudança de tendência) no ciclo
de negócios. A teoria Dow fornece sinais de compra e venda quando ambas as
médias estão se movendo na mesma direção. Dow acreditava que uma tendência
importante na economia resultaria em grandes tendências no mercado de ações. Em
um editorial de janeiro de 1902, ele explicou: “É um período de touro (bullish), desde que a média de uma
máxima exceda a das máximas anteriores. É um período de urso (bearish) quando a mínima se torna menor
que as mínimas anteriores”. Em um mercado altista (bullish) o mercado deverá continuar a subir e em um mercado em baixa
(bearish) espera-se que o mercado continue
a se mover para baixo. Em outras palavras, nesta análise, “touro” (bull) e “urso” (bear) não
se limitam a caracterizar movimentos passados, mas também tendências exploráveis.
A pesquisa recente (Dahlberg 2016) demonstrou que esta ideia simples entregou
resultados consistentemente rentáveis ao longo dos anos.
Embora
a teoria de Dow seja bastante simples de implementar observando máximas mais
altas e mínimas mais baixas, os analistas sempre quiseram bater o mercado por
uma margem tão ampla quanto possível, levando a uma busca por maneiras de
melhorar técnicas simples. Uma das primeiras abordagens quantitativas para
investir foi definida por Robert Rhea em uma edição de 1933 da Barron's. Rhea foi também um estudante
da teoria de Dow e foi o primeiro a coletar todos os editoriais de Dow e os de
seu sucessor no Wall Street Journal,
William Peter Hamilton, em um único volume publicado como The Dow Theory. Rhea também avançou o estudo do mercado com
pesquisa original. Em um único artigo de meia página, “Stock Habits: A Simple Method to
Follow Issues That Fluctuate More Widely Than the Averages”, Rhea
descreveu como calcular um “índice de apreciação” para um grupo de ações. O
índice de apreciação foi o retorno total das ações ao longo da vida de um mercado
touro ou urso (bullish ou bearish). Ele mostrou que um grupo de
ações com os maiores índices de valorização superou um grupo de ações de renda
(boas pagadoras de dividendos) que ele criou para servir como referência. Seu
teste foi simples pelos padrões modernos, mas parece ser o primeiro teste
quantificado de força relativa (RS).
Em
1945, a força relativa (RS) fez sua primeira aparição em uma revista acadêmica
quando H.M. Gartley, conhecido mais como um grafista do que como um analista
quantitativo, introduziu ao mundo às velocidades estatísticas como uma
ferramenta de investimento em um artigo no Analysts
Journal:
Em
primeiro lugar, é necessário selecionar uma média ou um índice para representar
o mercado todo, como o índice de ações Standard & Poor's 90, o Dow-Jones
65-stock Composite ou uma medida mais abrangente. Ao rastrear o padrão de
flutuação da média geral, as oscilações maiores são selecionadas (por inspeção)
e os pontos máximos e mínimos sucessivos são então usados para calcular avanços
e declínios em porcentagem. Embora a tendência geral do mercado possa fazer a
escolha de menores movimentos viáveis, geralmente as variações selecionadas são
aquelas de 10% ou mais. O próximo passo é calcular a percentagem comparativa de
avanço ou declínio das ações individuais. E finalmente, o aumento percentual ou
declínio da ação individual é dividido pelo movimento correspondente no índice
base, e multiplicado por 100, para dar a “classificação de velocidade” da ação.
Os
métodos de Gartley eram semelhantes à técnica de Rhea apresentada em Barron's. Gartley identificou as
principais tendências altistas (bullish)
e baixistas (bearish) dentro do
mercado geral. Ele comparou o movimento de cada ação individual com o movimento
do mercado geral durante cada período de tempo e calculou a velocidade de cada
ação. Seu conceito de velocidade assemelha-se muito ao beta no modelo de precificação
de ativos de capital (CAPM). Ele defendeu comprar ações com alta velocidade nos
mercados altistas (bullish).
Após
o trabalho de Gartley, a força relativa (RS) largamente desapareceu da
literatura por três décadas até Robert Levy publicar “Relative Strength as a Criterion for Investment Selection”, no Journal of Finance em 1967. O trabalho
de Levy foi objeto de uma grande crítica após a publicação e novamente a força
relativa (RS) desapareceu da literatura por quase 30 anos. Em 1993, o conceito foi redescoberto como momentum quando o Journal of Finance publicou “Returns
to Buying Winners and Selling Losers: Implications for Stock Market Efficiency”,
por Narasimhan Jegadeesh e Sheridan Titman. Esse artigo demonstrou que o momentum pode ser usado para superar
consistentemente o desempenho do mercado de ações.
As
estratégias de negociação que compram vencedoras passadas e vendem perdedores
passados realizaram retornos anormais significativos durante o período
1965-1989. Por exemplo, a estratégia que foi examinada mais detalhadamente, que
selecionou ações com base em seus últimos 6 meses de retorno e as mantiveram por 6
meses, obteve um excesso de retorno médio composto de 12,01% ao ano. Evidências
adicionais indicaram que a rentabilidade das estratégias de força relativa não se
deve ao seu risco sistemático. Os resultados dos testes também indicaram
que os lucros de força relativa não podem ser atribuídos aos efeitos lead-lag que resultam de reações atrasadas dos preços de ações a fatores comuns. A evidência é, contudo, consistente
com o atraso da reação de preço para a informação específica de uma empresa.
Desde
então, uma série de estudos acadêmicos têm demonstrado que a anomalia momentum funciona em mercados
internacionais e sob uma variedade de condições de mercado. Momentum, ou força relativa, é uma
ferramenta comumente combinada com outras técnicas de seleção, formando a base
do que poderia ser chamado de “análise de fusão” (fusion analysis) Os analistas de fusão usam o que eles acreditam que
funciona em seu processo de decisão de investimento, combinando análise técnica
com análise fundamentalista, por exemplo. Asness (1997) e outros têm escrito
sobre a combinação de técnicas de momentum
e valor.
Momentum pode
ser amplamente considerado como uma abordagem quantitativa para seguir
tendências, uma estratégia de negociação projetada para se beneficiar de
movimentos estendido do mercado. Esta aproximação é similar às ideias definidas
na teoria de Dow, que gera sinais negociando somente depois que uma tendência está
bem em curso. O trabalho de Dow também se ramificou no estudo dos ciclos, com
base no interesse de Dow pelo trabalho do economista britânico William Stanley
Jevons, que documentou um ciclo com duração de aproximadamente 10 anos em
vários preços de commodities. Dow
estendeu o conceito, argumentando que o ciclo de Jevons poderia ser dividido em
dois períodos aproximadamente iguais de boom
e queda na economia. Como o trabalho de Jevons se baseava principalmente na
atividade das manchas solares, outros analistas de ciclo buscaram identificar
ciclos de mercado baseados em fenômenos naturais. Famosamente, Ralph N. Elliott
(das “ondas de Elliott”) e W. D. Gann desenvolveram teorias que ganharam
popularidade e continuam a dominar alguns adeptos hoje. Atualmente, os
analistas de ciclos utilizam ferramentas, incluindo a transformada rápida de
Fourier (Sornette, Johansen e Bouchaud, 1996) ou análise espectral (Dyka,
Dudojć e Garus, 2013).
Embora
técnicas sofisticadas sejam cada vez mais utilizadas na prática da análise
técnica, os analistas técnicos permanecem leais ao estudo dos gráficos. Desde pelo menos
os anos 20, a análise de padrões gráficos tem sido largamente utilizada. No período
antes dos mercados serem regulamentados pela Comissão de Valores Mobiliários
dos Estados Unidos (SEC – Securities and
Exchange Commission), os gráficos forneciam uma das poucas fontes de
informações confiáveis disponíveis para os traders.
Os padrões tornaram-se assuntos populares de análise como os traders procuraram sinais indicadores de
manipulação do mercado, fato este que “era” comumente acreditado. O editor da Forbes, Richard Schabacker, catalogou
uma série de padrões na “Stock Market
Theory and Practice”, em 1930. Outros trabalhos se expandiram na
identificação e uso de padrões, mas o primeiro teste objetivo de padrões parece
ter sido publicado em 1995. Nesse
ano, o Federal Reserve Bank of New York
publicou “Head and Shoulders: Not Just a
Flaky Pattern”.
Este
artigo avalia rigorosamente o poder preditivo do padrão cabeça e ombros
aplicado às taxas de câmbio diárias. Embora esses gráficos não-lineares sejam
aplicados frequentemente por analistas técnicos, o artigo é um dos primeiros a
avaliar o poder preditivo de tais padrões. Foi aplicada uma regra de negociação
baseada no padrão de cabeça e ombros às taxas de câmbio diárias das principais
moedas em relação ao dólar durante o período de taxa flutuante (de março de
1973 a junho de 1994). Foram identificados padrões de cabeça e ombros usando um
algoritmo objetivo, implementado por computador baseado em critérios de manuais
de análise técnica publicados. Os lucros resultantes, replicáveis em tempo
real, foram então comparados com a distribuição de lucros para 10.000 séries
simuladas geradas com a técnica bootstrap
sob a hipótese nula de random walk
(passeio aleatório).
Como
resultado, foi observado que a regra de negociação de cabeça e ombros parece
ter algum poder preditivo para a marco alemão e o iene, mas não para o dólar
canadense, franco suíço, franco francês ou libra esterlina. No entanto, se
houvesse especulado em todas as seis moedas simultaneamente, os lucros teriam
sido estatisticamente e economicamente significativos. Tomados individualmente,
os lucros nos mercados de ienes e marco alemão também são substanciais quando
ajustados os custos de transação, diferenciais de juros ou risco. Estes
resultados são robustos a mudanças nos parâmetros do algoritmo de identificação
de cabeça e ombros, mudanças no período de amostragem e a suposição de que as
taxas de câmbio seguem um processo GARCH (Generalized Autoregressive
Conditional Heteroscedasticity) em vez de um random walk. Esses resultados são inconsistentes com praticamente
todos os modelos de taxas de câmbio padrão e poderiam indicar a presença de
ineficiências de mercado.
Trabalhos
subsequentes (Bulkowski 2005, por exemplo) chegaram a conclusões semelhantes. A
análise de padrões pode gerar lucros significativos em algumas circunstâncias.
Em parte, porque a análise de padrões não é “consistentemente” confiável, os
analistas técnicos continuaram a procurar as ferramentas que poderiam melhorar
seus resultados. Na busca por vantagens de negociação, analistas técnicos
adicionaram análise de volume e amplitude ao seu trabalho. A busca de
ferramentas mais poderosas acelerou quando os computadores simplificaram o
processo de criação de novos indicadores, o que levou a mineração de dados (data mining) em
muitos casos.
A mineração de dados
é outra crítica à análise técnica. Muitos indicadores e técnicas foram
desenvolvidos pesquisando dados históricos de padrões. Por exemplo, um analista
pode testar todos os comprimentos de média móvel de 1 dia a 10.000 dias para
encontrar a média móvel mais rentável a ser utilizada (na verdade, a mais
rentável para ser usada sobre o período passado testado). Eles podem então acrescentar
condições adicionais, como uma segunda ou terceira média móvel. Como tantas
variáveis são testadas, os resultados não são um indicador confiável de
desempenho futuro. Alguns resultados ruins são devido a testes estatisticamente
falhos, e outros resultados são simplesmente o resultado de pura “sorte”. Por
esta razão, o desempenho passado lucrativo não é tomado pelo valor nominal, mas
sim avaliado à luz da possibilidade de que os lucros do back-test podem ocorrer por pura “sorte”. O problema de sorte de desempenho
é especialmente pronunciado quando muitos métodos são back-tested e um melhor método é selecionado. Esta atividade é
chamada de mineração de dados (data
mining). Embora a mineração de dados seja uma abordagem promissora para
encontrar padrões preditivos em dados produzidos por processos complexos, em
grande parte aleatórios, como os mercados financeiros*, suas conclusões são
tendenciosas. Este é o viés da mineração de dados. Assim, a rentabilidade dos
métodos descobertos pela mineração de dados deve ser avaliada com testes
estatísticos especializados projetados para lidar com o viés da mineração de
dados.
Nos próximos artigos, comentaremos mais sobre análise técnica, como as pesquisas recentes sobre o tema e as aplicações modernas da análise técnica.
Nos próximos artigos, comentaremos mais sobre análise técnica, como as pesquisas recentes sobre o tema e as aplicações modernas da análise técnica.
Nenhum comentário:
Postar um comentário