Aprendizagem baseada em comportamento na identificação de estratégias de negociação de alta frequência


Inovação Baseada em Design para o Sucesso de Fabricação de Empresas em Ambientes Operacionais de Alto Custo.
Destaques.
O design é um dos vários paradigmas necessários para a inovação bem-sucedida na fabricação.
As tendências globais estão remodelando a indústria manufatureira, mas aumentando sua importância como base para a criação de riqueza nacional.
As empresas de manufatura estão buscando manter uma base para o sucesso em ambientes operacionais de alto custo.
O design contribui para a criação de valor e captura de valor de inovações em empresas de manufatura.
A inovação deve integrar abordagens da ciência e tecnologia com design, arte e investigação hermenêutica.
Confusão comum entre Arte e Design.
O setor manufatureiro está cada vez mais buscando a inovação para garantir o crescimento da produtividade, especialmente em ambientes operacionais de alto custo para alcançar uma concorrência não baseada em preços. O artigo começa com uma visão geral das tendências e desenvolvimentos regulatórios, tecnológicos e de consumo que afetam a fabricação. Ele considera a mudança do equilíbrio entre a fragmentação e a concentração das forças das cadeias de suprimento globais e como as próprias empresas de manufatura estão mudando. Essa visão geral é seguida por uma discussão dos constituintes centrais do sucesso das empresas que operam em ambientes de alto custo e conclui com a importância fundamental da inovação como base para o sucesso.
O artigo discute a criação de valor, a apropriação de valor e a inovação baseada em design, e argumenta que os fabricantes precisam entender as principais diferenças entre esses paradigmas. Em particular, a diferença entre arte e design é articulada, para evitar uma confusão comum entre os dois. A importância de uma abordagem inter e transdisciplinar da inovação é enfatizada, incluindo o uso de quatro estratégias de criação de valor - ciência e tecnologia, design, arte e inovação hermenêutica reversa.
O artigo conclui que o paradigma de inovação baseado em design é cada vez mais importante dentro da indústria manufatureira, mas que seu benefício só pode ser maximizado se for integrado às outras três abordagens criadoras de valor para a inovação.
O processo de revisão por pares é da responsabilidade da Tongji University e da Tongji University Press.

Negociação de alta frequência e deslocamento de preço no final do dia ☆
Mostramos que a presença de negociação de alta frequência (HFT) mitigou significativamente a frequência e a gravidade da luxação de preço no final do dia. O efeito da HFT é mais pronunciado nos dias em que o deslocamento do preço no final do dia é mais provável que seja o resultado da manipulação do mercado. Além disso, o efeito da HFT é mais pronunciado do que o papel das regras de negociação, vigilância, cumprimento e condições legais na redução da frequência e gravidade da luxação de preços no final do dia. Mostramos que nossas descobertas são robustas a diferentes proxies do início de HFT por tamanho de transação, cancelamento de pedidos e co-localização.
Classificação JEL.
Escolha uma opção para localizar / acessar este artigo:
Verifique se você tem acesso através de suas credenciais de login ou sua instituição.
Verifique este artigo em outro lugar.
Somos gratos ao Gabinete do Governo do Reino Unido para a Ciência, à Organização Reguladora da Indústria do Investimento do Canadá (IIROC) e ao CRC dos Mercados de Capitais pelo apoio financeiro. Douglas Cumming também está em dívida com o Conselho de Ciências Sociais e Pesquisa em Ciências Humanas do Canadá (SSHRC) pelo apoio financeiro. Devemos agradecimentos especiais a Franklin Allen, Ming Dong, Sofia Johan, Pauline Shum e três árbitros anônimos do Escritório de Ciência do Governo do Reino Unido por seus comentários e sugestões. Sofia Johan generosamente deu permissão para usar dados sobre vigilância de Cumming e Johan (2008). Além disso, devemos agradecer aos participantes do seminário Simon Fraser (2012), Lancaster (2012), York (Toronto) (2012), China Europa International Business School (Xangai) (2013), Bank of Canada (2013), Concordia University (2013), Goethe University Frankfurt (2013), Financial Management Association (2013), French Finance Association (2013), Northern Finance Association (2013), American Economic Association (2013), European Finance Association (2013) e John Carroll University ( 2014).

Aprendizagem baseada em comportamento na identificação de estratégias de negociação de alta frequência
As sessões do triângulo vermelho são nível de especialista / praticante.
Dia da conferência 1: segunda-feira, 30 de outubro de 2017.
Localizado no Hall 1E.
Segunda-feira das 8:00 às 19:00 e terça-feira das 8:00 às 15:30.
8: 00-8: 45am & bull; Sala: Salão de Exposições.
Comentários de Boas-vindas da Conferência.
Mundo da Análise Preditiva.
A análise correta para o trabalho: dicas e truques para o sucesso.
Bem-vindo à Explosão do Google Analytics! Apesar da especulação de que a necessidade de análise começar a estabilizar, as evidências sugerem que ela continua em alta. As tendências mostram o estabelecimento de mais e mais equipes analíticas internas, permitindo que o luxo da análise preditiva e prescritiva seja aplicada em todos os níveis de uma organização. No entanto, muitos fatores devem ser considerados ao avaliar um empreendimento analítico, como a complexidade do problema, a precisão necessária na solução e a oportunidade necessária para a resposta. Com tantas variáveis, como você escolhe a ferramenta de análise correta para o trabalho? O que mais é necessário para que um esforço de análise seja bem-sucedido? Aproveitar uma abordagem analítica dinâmica alcançará o maior valor para o seu negócio.
Diretor Executivo, Estratégia, Analytics e Sistemas.
Apresentação do Patrocinador Diamante.
Automação de Aprendizado de Máquina: Adoção em Grande Escala da Análise Preditiva.
No século 21, a capacidade da organização de transformar seus dados em decisão e inteligência a diferencia da concorrência. Esse processo tem três componentes: 1) Capacidade de desenvolver e atualizar centenas de modelos preditivos; 2) Implante-os na infraestrutura tecnológica existente e 3) Operacionalize-os - ou seja, integre-os na tomada de decisões do dia-a-dia. Nesta breve apresentação, discutiremos como a inteligência artificial nos permite construir automação de aprendizado de máquina que ajuda as organizações a atingir esses objetivos e impulsionar uma adoção em grande escala de aprendizado de máquina e decisões baseadas em dados.
Gerente Geral de Seguros.
10: 00h - 10: 30h; Sala: Salão de Exposições.
Exposições e café da manhã.
FAIXA 1 - Resposta a crises; gerenciamento analítico.
Lições de: Prefeitura de Nova York.
Construindo rapidamente um ambiente de análise para resolver uma crise de saúde pública em Nova York.
A análise preditiva provou ser uma ferramenta muito útil no setor público, mas o que acontece quando ocorre uma emergência e precisamos construir uma infraestrutura analítica inteira a partir do zero? Neste estudo de caso, o Escritório de Análise de Dados (MODA) da Prefeitura de Nova York explicará como a cidade de Nova York construiu um sistema para coletar, monitorar e prever a presença de torres de resfriamento potencialmente portadoras de doenças (Legionnaires Disease) entre Os mais de um milhão de prédios de Nova York em menos de uma semana.
Escritório da NYC Mayor de Análise de Dados.
10: 30-11: 15 da manhã; Quarto: 1E09 / 1E10.
FAIXA 2 - Dados de treinamento rotulados à mão.
Estudo de caso: Bloomberg L. P.
Crowd-Sourcing e Qualidade:
Como obter o melhor dos dados de treinamento com tags manuais para modelos de aprendizado de máquina.
Os modelos de aprendizado de máquina dependem de grandes quantidades de dados de treinamento para tarefas de aprendizado supervisionadas. Esses dados podem ser caros de coletar, especialmente se requerer rotulagem humana (como na classificação de documentos ou imagens) e levanta alguns problemas específicos de qualidade. Por exemplo, como podemos garantir que o acordo humano é alto e o que fazemos no caso de não ser? Além disso, quando seus dados são caros para marcar, como garantir que você tenha o menor conjunto possível que seja representativo de todos os seus recursos? Esta palestra abordará esses e outros problemas associados à coleta de conjuntos de dados codificados manualmente e com código de barras para modelos supervisionados de aprendizado de máquina.
FAIXA 3 - Modelagem de rotatividade.
Modelagem de retenção em tempos econômicos incertos.
Pequenas empresas são suscetíveis a até mesmo pequenas mudanças nas condições econômicas. Ao alocar estrategicamente os esforços de retenção em meio milhão de empresas, precisamos levar em conta as mudanças mencionadas e maximizar nossas alocações de recursos. Técnicas de modelagem tradicionais podem falhar ao longo do tempo na presença de desvio de conceito. Criamos um método inovador para explicar mudanças desconhecidas usando modelo sazonal e modelo de tendência para atribuir probabilisticamente esforços de retenção. Além disso, construímos funcionalmente, o que permite que novas variáveis ​​sejam consideradas para o desenvolvimento à medida que se tornam relevantes. Essa nova metodologia elimina a necessidade de ajustes anuais e estabiliza o desempenho.
Gerente, Data Science.
Faixa 1 - Educação e formação de equipes.
Lições de: LinkedIn.
A Sprint para o Ensino da Ciência de Dados: Aprendizado do LinkedIn, Análise e a Nova Era do Treinamento de Habilidades Just-In-Time.
A missão do LinkedIn Learning inclui o treinamento do enorme número de pessoas que precisam de habilidades em análise de negócios e análise de dados. Mas qual é a melhor maneira de avaliar a demanda do mercado e desenvolver ferramentas para validação na cobertura de habilidades de classificação de pilha? Como você vai de um punhado de cursos de ciência de dados para mais de 100 em menos de um ano e os torna tão eficazes quanto possível? Como você encontra os melhores instrutores? Como e por que contrastamos com a educação em sala de aula padrão e com o aprendizado alternativo como os MOOCs? O LinkedIn, uma empresa de dados, usa a análise para responder a essas perguntas e orientar nossa estratégia.
Gestor de Conteúdos, Data Science e Business Analytics.
11h20-12h05: 05h00; Quarto: 1E09 / 1E10.
FAIXA 2 - Modelagem de séries temporais.
Previsão de séries temporais com o Twitter: um estudo de caso do crime em Nova York.
O problema de prever, para cada tipo de crime, a freqüência do crime em uma área específica em um dia específico pode ser enquadrado como um problema de regressão em frequências de crimes e dados do Twitter: dado (1) os últimos 31 dias de atividade no Twitter geo-marcados na área imediata, (2) os últimos 31 dias de atividade do Twitter na área geral e (3) as frequências históricas de crimes da área geral do ano anterior, prevejam a frequência de crimes para o dia seguinte naquele local. Inerente a esta descrição do problema está a seguinte previsão: a taxonomia usada em tweets de toda a área (como uma grande fração de restaurantes com baixa audiência, ou muitos tweets sobre como as pessoas não seguras se sentem naquela área) contém informações que poderiam ser usadas para construir preditores de futuras frequências de crimes para diferentes tipos de crime. Supondo que a série temporal possa ser modelada como desvio de uma função periódica, e incorporando essa suposição ao modelo, pode potencialmente produzir melhores estimativas de frequência do crime do que prever diretamente as frequências de crimes. A pesquisa proposta tem implicações para tomadores de decisão preocupados com espaços geográficos ocupados por usuários do Twitter. Esta sessão cobrirá esses resultados analíticos, que foram produzidos por um grupo extenso de estudantes de pós-graduação e pesquisadores da Universidade de Nova York.
Professor de Ciência da Computação.
Universidade de Nova York.
Instituto Courant de Ciências Matemáticas da Universidade de Nova York.
Engenheiro de Aprendizado de Máquina.
Gestão de Capital Trinnacle.
FAIXA 3 - Modelagem de rotatividade.
Estudo de caso: Atlassian.
Prevendo a rotatividade de clientes do uso do produto na Atlassian.
Medir a rotatividade de clientes é um aspecto fundamental da ciência de dados de marketing, independentemente do tipo de produto que uma empresa está vendendo. De fato, identificar os recursos mais preditivos é igualmente importante para identificar os usuários com risco de churning, pois isso pode ajudar as equipes de marketing e vendas a adotar a estratégia mais adequada para reter seus clientes, aprimorar seus produtos e identificar novas oportunidades. Esta apresentação apresentará uma metodologia baseada em árvore de decisão para calcular a probabilidade de churn e discutirá quais atributos, características comportamentais ou traços de caráter são os mais benéficos para o nosso modelo.
Chefe de Ciência de Dados.
Atlassian (anteriormente Walmart)
FAIXA 3 - Pesquisa e análise de mercado.
Estudo de caso: Verizon Wireless.
Prevendo o amor da marca com comportamentos sem fio.
Usando dados robustos de anonimato, proteção e segurança, a Verizon vinculou milhares de participantes de pesquisas de saúde a seus registros reais de banco de dados para ver como comportamentos como aumento de uso de dados ou atualizações telefônicas poderiam prever mudanças nos ratings da marca pesquisados. Esta apresentação discutirá o valor comercial da análise em torno da marca, em seguida, aprofundará os métodos analíticos e os resultados selecionados.
Diretor, Consumer Insights e Marketplace.
12: 05-1: 30 da tarde; Sala: Salão de Exposições.
Como começar o Machine Learning e o Predictive Analytics.
Aprendizado de Máquina é a capacidade central de qualquer instituto financeiro moderno. Cada usuário de dados precisa ter a capacidade de usar dados disponíveis e criar modelos de análise preditiva para orientar sua tomada de decisão ou liderar uma equipe de ciência de dados. Durante esta sessão, discutiremos os componentes críticos da análise preditiva e do aprendizado de máquina, mostraremos um processo final de "dados para decisão" e, finalmente, compartilharemos um roteiro para você sobre como desenvolver a capacidade de aprendizado de máquina para você mesmo e para a sua organização.
1:30 pm-2: 15pm & bull; Quarto: 1E09 / 1E10.
O prognóstico de previsibilidade: seu modelo negligencia o alvo real.
No contexto da construção de modelos preditivos, a previsibilidade é geralmente considerada uma bênção. Afinal de contas - esse é o objetivo. para construir o modelo que possui o maior desempenho preditivo. A ascensão do 'big data' melhorou muito nossa capacidade de prever o comportamento humano, graças à introdução de recursos muito mais informativos.
No entanto, na prática, a variável de destino é geralmente mais diferenciada do que a contabilizada nos dados. Por exemplo, alguns clientes se movimentam (de um provedor de telecomunicações) porque estão se mudando, outros porque recebem uma oferta melhor pelo correio, e o terceiro porque sua casa está em um local com uma recepção terrível. Estes são todos positivos para um modelo que aprende a prever a rotatividade, mas o resultado previsto ocorreu por razões muito diferentes. Em muitas aplicações, tais cenários mistos significam que o modelo gravitará automaticamente para aquele que é mais fácil de prever à custa dos outros. Isso é válido mesmo se o cenário previsível for de longe menos comum ou relevante. No pior dos casos, os modelos preditivos podem introduzir vieses que NÃO estão presentes nos dados de treinamento.
Nesta palestra, abordaremos vários aplicativos em que isso ocorre: cliques em anúncios sendo executados "intencionalmente" em vez de "acidentalmente", consumidores visitando locais de lojas em comparação com seus telefones fingindo estar lá e, finalmente, clientes preenchendo formulários on-line contra bots defraudando a indústria da publicidade. Em conclusão, a combinação de características diferentes e altamente informativas pode ter um impacto significativamente negativo sobre a utilidade e a ética da modelagem preditiva.
Apresentação do Patrocinador Diamante.
Empresa Orientada a Oportunidades: Transformando os Negócios em Sua Cabeça.
diwo é uma plataforma de tomada de decisão cognitiva sem paralelos desenvolvida pela Loven Systems que revela oportunidades de negócios em tempo real e capacita os usuários a agir em situações de negócios antes que eles ocorram. diwo analisa múltiplas fontes de dados usando modelos analíticos especializados para fornecer insights contextuais e oportunos. Ao orientar os usuários por meio de decisões de negócios, Diwo inaugura uma nova era de empreendimentos orientados a oportunidades.
TRACK 1 - estratégia de análise.
Lições de: The Clorox Company.
Introdução ao Data Driven Insights, Execução e Inovação na Indústria CPG?
A necessidade de ser mais centrada no consumidor (dados), disponibilidade de fontes diferentes de dados granulares e tecnologia, técnicas e habilidades que avançam rapidamente torna necessário e viável para as empresas de produtos embalados (CPG) incorporar a ciência de dados em sua estratégia de análise para impulsionar ainda mais crescimento e inovação. Nesta sessão, discutiremos os fatores que dificultam a Data Science (no CPG), a curva de maturidade organizacional da análise de CPG, dados e técnicas que podem ser usadas para direcionar a jornada do consumidor, algumas técnicas e casos de uso para começar, alguns em Exemplos de casas na Clorox e algumas aprendizagens importantes na jornada até agora.
Diretor Associado - Data Science.
A Clorox Company.
FAIXA 2 - Métodos analíticos.
Machine Learning versus Feature Engineering: O que deve ser o foco na tentativa de prever o comportamento do cliente.
O uso de aprendizado de máquina é um tema comum nas organizações de hoje, mas a maioria das pessoas ainda luta com sua definição, considerando seus diversos níveis. Nesta sessão, tentamos eliminar essa confusão explorando vários algoritmos de aprendizado de máquina que vão do simples ao mais complexo. Observamos o uso desses algoritmos em diversos setores, bem como diferentes comportamentos, como resposta do cliente e risco do cliente. Juntamente com a comparação de algoritmos de aprendizado de máquina, também analisamos o impacto dos dados e como a engenharia de recursos afeta uma determinada solução.
Vice-presidente sênior da Divisão de preenchimento da Boire.
FAIXA 3 - Aquisição para matrícula acadêmica.
Estudo de caso: Becker College.
Funil de Aquisição para o Ensino Superior.
A modelagem preditiva ganhou popularidade ao estudar a matrícula em faculdades devido à forte concorrência no ensino superior. Para tomar decisões informadas e alocar recursos limitados para melhorar a inscrição, a modelagem preditiva foi aplicada para desafiar e mudar o processo tradicional de recrutamento. Esta sessão destina-se a dois resultados de aprendizado: Os participantes que não estão familiarizados com a modelagem preditiva aprenderão como definir um plano para coletar e construir uma infraestrutura de dados abrangente e conduzir a modelagem preditiva. Os participantes que executaram a modelagem preditiva aprenderão a examinar criticamente a qualidade de suas análises preditivas.
Consultor de Ciência de Dados no Metadata. io e Instrutor de Análise, Harrisburg University of Science and Technology.
TRACK 3 - Modelagem Uplift.
Estudo de caso: Telenor; Banco dos EUA.
Modelagem Uplift: Otimize a Influência e Persuada pelos Números.
As decisões baseadas em dados destinam-se a maximizar o impacto - certo? Bem, a única maneira de otimizar a influência é prevê-la. O método analítico para fazer isso é chamado de modelagem de elevação (também conhecida como modelagem de persuasão). Este é um animal completamente diferente dos modelos preditivos padrão, que predizem o comportamento do cliente. Em vez disso, os modelos de elevação predizem a influência no comportamento de um indivíduo obtido pela escolha de um tratamento em detrimento de outro. Nesta sessão de encore, o fundador da PAW, Eric Siegel, fornece uma introdução ao crescente campo de modelagem de elevação.
Mundo da Análise Preditiva.
3: 25-3: 55pm & bull; Sala: Salão de Exposições.
Exposições e coffee break à tarde.
TRACK 1 - estratégia de análise.
Lições de: Prudential Financial Inc.
Criação de valor através da inovação do Analytics.
A análise de dados tem sido uma das áreas mais quentes que as empresas investiram em seu futuro, na esperança de manter e melhorar a posição competitiva no setor. No entanto, muitos executivos do nível C têm dúvidas sobre seu retorno e o valor que esses investimentos trarão. Nesta palestra, primeiro analisaremos os desafios enfrentados pelas empresas no planejamento e no trabalho em projetos analíticos. Em seguida, examinaremos vários tipos de inovações analíticas e diferentes resultados de valor que essas inovações podem trazer.
Diretor do Analytics.
Prudential Financial Inc.
FAIXA 2 - Métodos analíticos.
Estudo de caso: Citigroup.
Uma Abordagem de Regressão Logística Modificada Melhorada por Novas Interações e Detecções de Escala através de Florestas Aleatórias e GBM.
O processo de seleção de variáveis ​​do modelo é um componente essencial da análise preditiva. Considerando que a regressão logística depende da seleção / descoberta de características sendo feita de antemão, as abordagens de aprendizado de máquina baseadas em árvore GBM e Florestas Aleatórias executam intrinsecamente seleções de atributos. No entanto, as opções padrão para Random Forest e GBM são direcionadas para variáveis ​​contínuas, menos favoráveis ​​para variáveis ​​categóricas e binárias. Soluções imparciais são muito intensivas em computação. Propomos uma nova abordagem que combina os pontos fortes da seleção de recursos intrínsecos de Random Forests e GBM para detectar relacionamentos não-lineares, aprovar escalonamento e encontrar interações e integrar essas transformações não lineares em uma abordagem tradicional. Um aumento de 7-10% é observado.
Diretor Sênior em Global Decision Management.
FAIXA 3 - Modelagem de rotatividade; modelagem de elevação.
Estudo de caso: os cooperadores.
Qual Modelo Preditivo Melhor Ajudará a Aumentar a Retenção?
Existe uma grande variedade de modelos para prever a retenção de clientes, cada um com requisitos de dados e saídas de modelo diferentes. Essas diversas opções de modelagem dificultam a identificação da abordagem com o maior poder preditivo potencial para aumentar a retenção. Este estudo de caso explica como uma abordagem de análise de sobrevivência para prever a retenção de residências foi substituída por um modelo "true-lift" mais complicado, porém mais preciso. Esse modelo foi usado para campanhas de marketing direcionadas realizadas para aumentar a retenção de residência de uma seguradora canadense, com desempenho monitorado durante um ano. O modelo "true-lift" teve melhor desempenho que o modelo de retenção.
Analista de Pesquisa e Inovação.
TRILHA 1 - Construindo Equipes de Ciência de Dados.
Lições de: Comcast.
Acelerando a inovação em ciência de dados.
À medida que mais e mais empresas se esforçam para recrutar e construir equipes de ciência de dados, elas também precisam identificar como estruturar essas equipes dentro da organização para impulsionar aplicativos inovadores de ciência de dados que impulsionarão seus negócios. Esta sessão abordará as principais considerações na estruturação de uma organização de ciência de dados capaz de gerar as grandes ideias analíticas que terão o maior impacto em impulsionar os negócios.
VP, Analytics e Business Intelligence.
TRACK 2 - Previsão; Métodos analíticos.
Estudo de caso: Micron Technology Inc.
Previsão de demanda com Machine Learning.
A previsão precisa da demanda dos clientes por produtos é fundamental para o sucesso na indústria de semicondutores. Um portfólio diversificado de produtos, mapeamentos detalhados de clientes, condições dinâmicas de mercado e ciclos de produção estendidos, tudo isso aumenta a necessidade de uma solução de previsão automatizada confiável e responsiva. Descreverei um modelo de previsão personalizado recentemente desenvolvido pela Micron Technology Inc. que combina algoritmos de aprendizado de máquina, técnicas estabelecidas de modelagem de séries temporais e conhecimento humano para alavancar a infraestrutura de previsão existente para alcançar melhorias significativas na precisão das previsões em vários níveis a hierarquia de produtos e clientes.
Cientista de dados corporativos sênior.
Micron Technology, Inc.
FAIXA 3 - Otimização de alcance; Modelagem de elevação usando experimentos rápidos e modelagem de elevação para otimizar o alcance em escala.
No ambiente atual, o consumo de mídia está se fragmentando, os cortadores de cordas são um segmento cada vez maior da população e o "digital" não é mais um meio único e onipresente. Como tal, as grandes empresas e outras organizações que procuram fazer escala em escala para mudar o comportamento dos indivíduos têm um grande número de opções de como implantar seus recursos de divulgação. Nesta palestra, Daniel Porter, co-fundador e Chief Analytics Officer da BlueLabs, discutirá como as ferramentas atuais que combinam modelos de elevação com algoritmos de alocação de última geração tornam possível para organizações que vão de empresas da Fortune 100 a Campanhas Presidenciais a grandes agências governamentais otimizar essas decisões no nível individual, levando a garantir a entrega da mensagem certa para a pessoa certa no momento certo, por meio de canais de mídia em que um indivíduo tem mais probabilidade de se envolver positivamente com o conteúdo.
5: 30-7: 00 pm & bull; Sala: Salão de Exposições.
19:00 horas; Encontre-se no registro.
Dia da conferência 2: terça-feira, 31 de outubro de 2017.
Localizado no Hall 1E.
Segunda-feira das 8:00 às 19:00 e terça-feira das 8:00 às 15:30.
8: 00-8: 35am & bull; Sala: Salão de Exposições.
Bem-vindo à cadeira de conferência.
Mundo da Análise Preditiva.
Sessão Plenária Especial.
O que otimizar? O coração de todo problema de análise.
Todo desafio analítico reduz, em seu núcleo técnico, a otimização de uma métrica. Os mecanismos de recomendação de produtos enviam itens para maximizar as compras de um cliente; Algoritmos de detecção de fraudes sinalizam transações para minimizar perdas; e assim por diante. À medida que os algoritmos de modelagem e classificação (otimização) melhoram com o tempo, pode-se imaginar a obtenção de uma solução simplesmente definindo a métrica orientadora. Mas nossas ferramentas são boas? Mais importante, estamos apontando-os na direção certa? Eu acho que, muitas vezes, a resposta é não. Vou argumentar em favor de um pensamento claro sobre o que exatamente pedimos ao nosso assistente de computação para fazer por nós e recontar algumas histórias de guerra ilustrativas. (Heresia analítica garantida.)
Elder Research, Inc.
Tendências do setor: destaques da pesquisa do Data Miner 2017.
Na primavera de 2017, mais de mil profissionais analíticos de todo o mundo participaram da 8ª Pesquisa sobre Mineradores de Dados do Rexer Analytics. Nesta sessão de PAW, Karl Rexer revelará os destaques dos resultados da pesquisa deste ano. Os destaques incluirão:
Principais desafios de algoritmos do Big Data Analytics e as medidas tomadas para superá-los em ambientes analíticos de computação e ferramentas de implementação de projetos analíticos.
Apresentação do Patrocinador Diamante.
Mova-se além da segmentação básica e acelere as vendas com a ajuda do Machine Learning.
Nesta sessão, discutiremos como o uso de dados e análises em um ambiente de Aprendizado de Máquina se tornou a mais recente tendência no uso de análises para vendas e marketing. Esta abordagem está prestes a se tornar um dos meios mais amplamente aceitos para melhorar a eficácia da campanha através do uso de propensão e modelagem preditiva de resposta.
Vice-Presidente Global de Dados e Soluções Analíticas.
TRACK 1 - Obtendo implantado.
Lições de: Honeywell.
Operacionalizando o Analytics: a Última Milha Crítica para o Valor.
Com que frequência os projetos analíticos falham em gerar valor ou monetização? Com que frequência o grande trabalho analítico é desperdiçado? A principal razão para a falha em obter valor do investimento analítico é a falta de capacidade de implantar no mercado. Os avanços na tecnologia Big Data permitiram que as empresas implementassem análises de maneira consistente e conveniente para começar a perceber o valor de seus investimentos.
Então, o que tudo isso realmente significa para você como cientista de dados? Como você não apenas domina o ambiente inconstante - mas o usa para prosperar?
Nesta palestra, Bill Groves, Chief Data Scientist & amp; Analista de análise da Honeywell International, irá explorar como operacionalizar analytics.
Por que a "última milha" é fundamental e muitas vezes esquecida? Organizar para otimizar o retorno de análises Alavancando tecnologias emergentes em dados e análises para aumentar a velocidade de mercado e implantação.
Nunca houve um momento melhor para estar na vanguarda da ciência de dados. Monte a onda de mudança hoje - e amanhã.
Chief Data & Analytic Officer.
10: 00-10: 45h; Quarto: 1E09 / 1E10.
Três etapas para melhorar a qualidade dos dados para análise preditiva.
Três etapas para melhorar a qualidade dos dados para análise preditiva.
Dados ruins são inimigos da análise preditiva. De confusão sobre unidades ou medidas, a definições ausentes, a valores de dados que estão simplesmente errados, dados ruins atrapalham ou, pior, levam previsões erradas. Infelizmente, não há solução "bala de prata" para todos os problemas que podem surgir.
Felizmente, os profissionais podem tomar medidas para aliviar os problemas de dados incorretos:
1. Compreender os níveis de qualidade e avaliar se os dados são adequados para uso em suas análises.
2. Use as rotinas "enxaguar, lavar e esfregar" para limpar alguns dados incorretos e.
3. Aborde as causas de dados de baixa qualidade a longo prazo.
Esta apresentação resume brevemente os problemas, coloca as etapas acima no contexto e mostra que elas contribuem para uma melhor análise preditiva.
Soluções de Qualidade de Dados.
FAIXA 3 - Contação de dados de dados.
Os limites das pesquisas e o poder dos dados de pesquisa do Google.
O autor de Everyhome Lies, Seth Stephens-Davidowitz, discutirá como usar as pesquisas do Google para obter novos insights sobre as pessoas. Ele discutirá ferramentas públicas disponíveis para pesquisadores, como encontrar insights importantes e potenciais armadilhas no uso de dados de pesquisa. Sua palestra abordará vários tópicos, incluindo marketing, psicologia e economia.
Este autor, Seth Stephens-Davidowitz, realizará uma sessão de autógrafos para "Everybody Lies" logo após sua sessão no salão da exposição durante o intervalo do café da manhã.
Ex-cientista de dados, Google.
10:45 am -11: 15am & bull; Sala: Salão de Exposições.
Exposições e café da manhã.
e ex-cientista de dados do Google.
FAIXA 1 - Análise da força de trabalho.
Lições de: Intel.
Como a Intel ganha o talento de mercado certo com o Analytics.
Como a Intel está se transformando para se tornar uma empresa de data center e entrando em novos campos, como IA e carros autônomos, a necessidade de integrar dados de RH na tomada de decisões tornou-se mais relevante do que nunca. Nesta sessão, analisaremos os novos métodos e recursos que a organização de Inteligência de talentos da Intel desenvolveu para ajudar seus negócios a alavancar seus talentos internos e atrair candidatos externos para ocupar posições críticas. Mostraremos estudos de caso reais de como essas novas capacidades analíticas são adotadas pelos líderes da Intel para conquistar os talentos certos no mercado.
Diretor de Inteligência de Talentos e Analytics.
11:15 am - 12:00 pm & bull; Quarto: 1E09 / 1E10.
FAIXA 2 - Melhores práticas.
Perguntas e Respostas: Pergunte a Dean e Karl Anything (sobre as Melhores Práticas)
O proeminente consultor, autor e instrutor Dean Abbott, junto com o presidente da Rexer Analytics, Karl Rexer, fez perguntas de campo de um público de profissionais de análise preditiva sobre seu trabalho, melhores práticas e outras dicas e sugestões.
Co-fundador e cientista chefe de dados.
FAIXA 3 - Aplicações legais.
Facilidade Legal: Aplicações de Análise Preditiva na Lei.
O mercado de serviços jurídicos é um mercado de limões? Os consumidores não têm meios de determinar ex ante se seu advogado é bom ou medíocre. O consumo de serviços jurídicos geralmente se baseia em adivinhação ou confiança excessiva nas referências. Da mesma forma, os preços dos serviços jurídicos têm pouca relação com a qualidade - os advogados medíocres geralmente cobram tanto quanto os bons advogados, e os clientes acabam pagando taxas muito altas para advogados com perda de registros. Por outro lado, os bons advogados podem ser mal pagos em relação aos pobres, porque o mercado avalia todos os serviços com um nível médio de qualidade devido à falta de transparência e confiança. Nesse ambiente, a análise de registros de perdas e ganhos, práticas de citação de juízes em particular, vieses em favor de demandantes ou réus, etc. têm o potencial de trazer a tomada de decisões baseadas em evidências necessárias para o sistema legal. A análise e o aprendizado de máquina também oferecem o potencial para automatizar decisões legais altamente importantes, como liberdade condicional - onde métodos idiossincráticos e opacos produziram resultados altamente variáveis ​​em circunstâncias semelhantes que põem em perigo a sociedade. Para os governos, a análise de produtividade e eficiência oferece o potencial para adaptar os gastos da justiça de maneiras mais adequadas para abordar a lacuna de justiça.
Pro Vice-Chanceler (Inovação Acadêmica)
Universidade de Deakin, Melbourne, Austrália.
FAIXA 3 - Estudos de caso líderes da indústria.
Análise da jornada do cliente: caminhos incríveis para o sucesso do cliente.
E se você pudesse avaliar com precisão o valor e o risco de um cliente em potencial desde a primeira interação? Detailed customer data is now more widely available, across all the touchpoints that prospects and customers have with your organization. By creating an Experience Platform, you can use advanced analytics to tie together the whole journey, and each customer's individual pathway can now be optimized.
In this session, you'll learn:
Analytic techniques to better understand the customer experience The data, technology, and processes that will help you transform customer experience How to get started in using advanced analytics to improve your organization's customer experience.
12:00-1:15pm • Room: Exhibit Hall.
All markets are large organizational elements made up of smaller elements called products. The session begins by showing that the only markets that express the law of supply and demand are those for scarce, highly valued products such as gold, silver, and platinum. All other markets demonstrate action in the dual states of value and demand across four mathematical axes, creating a 4D position, modulated by other forces, as the buyers deem appropriate. Adding another variable, time, to a 4D state yields a 5D state. This session continues with an examination of the nature of 4D and 5D states in MEE4DTM software, showing users how to find over and underpriced products already in the market; additionally, it displays what markets want, do not have, and can afford. Working with common data, it provides actionable, statistically significant business intelligence to buyers, sellers and new market entrants alike.
UPS' Road to Optimization.
Using advanced analytics, UPS was able to reduce 185M miles driven annually. The latest tool, ORION (On Road Integrated Optimization and Navigation) completed deployment in 2016 and accounts for $300M to $400M in cost reduction annually.
Senior Director, Process Management.
Diamond Sponsor Presentation.
The Spooky Side of Predictive Analytics: Opaque Models.
In predictive analytics, there can be a singular focus on how well the model fits the data; however, if you focus on building models that not only fit the data well but are intuitive and easily explainable, you'll end up with stronger models in the long run.
Senior Director of Analytics.
Women in Predictive Analytics: Opportunities and Challenges.
Across fields of science and engineering, the track record of contributions made by women continues to grow - a fact that helps pave the way for future female scientists. Predictive analytics and data science are no exception. In this session, our expert panelists will address questions such as:
How to increase the count of women in your analytics team Differences from other science and engineering fields in terms of being male dominated How to "survive" as a woman in analytics The next generation - encouraging girls and newcomers in STEM (science, technology, engineering, and mathematics) Balancing work and personal life.
Executive Director, Strategy, Analytics and Systems.
Principal | Retail Technology and Analytics.
Deloitte Consulting LLP.
Risk Analytics Manager.
Signifyd (formerly Fiserv)
Senior Trading Specialist.
3:00-3:30pm • Room: Exhibit Hall.
TRACK 1 - Analytics management.
Lessons from: Vanguard.
AI: From Prototype to Production.
An overview of key strategies to execute when piloting and integrating machine intelligence into your enterprise. Learn how to generate a return-on-innovation, by aligning to business needs. Identify ways to successfully scale tools and best practices across silo-ed teams.
Data Scientist - Investment Management Fintech Strategies.
TRACK 2 - Model interpretation.
Case Study: SmarterHQ.
When Model Interpretation Matters: Understanding Complex Predictive Models.
For some of us, predictive accuracy is paramount when we assess our models: PCC, ROC AUC, Type I and Type II errors, etc. However, in other applications, the interpretation of predictive models is paramount so we understand why the model behaves the way it behaves. For this reason, many practitioners end up building models that are easier to interpret rather than models that are more accurate: regression or decision trees in particular. Neural Networks and Model Ensembles fall out of favor in these applications because they are perceived to be "black boxes".
This talk will describe an approach to determine the relative influence of each input variable in any predictive model using input shuffling, no matter how simple or complex the model. Interpretation of linear regression, logistic regression, neural networks, and Random Forest models will be compared and contrasted.
Co-Founder and Chief Data Scientist.
TRACK 3 - PA adoption in a new industry.
Case Study: RightShip.
Overcoming Challenges Implementing a Risk Model in the Maritime Industry.
Over 90% of world trade is carried by sea, and RightShip's highly regarded online vetting system provides data and risk evaluations on over 75,000 vessels in the world fleet. In this unique, ground-breaking case study of predictive model deployment in the maritime industry, Bryan Guenther will cover:
- Model development - the right team and expertise.
- Chaid model - pros and cons.
- How the model highlighted a huge problem in applying a fair rating across different types of vessels.
- Issues with "flip-flopping" near the cutoff between two ratings.
- Industry socialization and training.
- Industry acceptance (or not)
- How much do you show the customer without causing confusion?
- How do you train up your own internal staff to answer customer questions?
- When to retrain the model.
- How to handle the fallout of changes when updating.
- The impact of this endeavor on the shipping industry.
Qi Program Manager.
TRACK 3 - Salesforce applications.
Case Study: Runzheimer.
Using Mileage Logs to Predict Successful Sales Behavior.
Companies have spent millions of dollars on CRM systems that require their sales teams to manually enter their sales call activity to track behavior. This "user entered data" is often a trove of falsehoods and misleading information. Yet where and when your salespeople go can be captured in their mileage logs. Learn how an analysis of 25,000 captured salesperson trip logs led to new insights on what really leads to sales success.
TRACK 1 - Model deployment.
Lessons from: John Hancock.
A Shiny Way to Operationalizing Analytics.
A model is only as valuable as its adoption. Speed to value, repeatability and low cost solutions can dramatically reduce software and services budgets and free up valuable dollars for other activities. Open source tools such as Shiny (R) and Flask (Python) have enabled the creation and deployment of data science based web applications convenient and manageable. At John Hancock, in its Advanced Analytics function, we routinely wrap sophisticated modeling code into such web-based point and click solutions. In this session you will see and learn about real-life examples of how one can rapidly operationalize both model build & maintenance.
Head of Advanced Analytics.
Regulating Opacity: Solving for the Conflict Between Laws and Analytics.
Software and analytics have been eating the world for a long time, and law and government are next. Businesses are increasingly transcending physical boundaries into new, unregulated virtual domains, forcing companies, developers and regulators to take a hard look at how data is collected, stored, and used. And new laws around the world are beginning to force the technology industry to rethink how it approaches the law. This talk will explain how and why the worlds of law and technology are colliding, and what this means for data-driven companies, the technology industry, and governments and citizens around the world.
Chief Privacy Officer & Legal Engineer.
TRACK 3 - Logistics analytics.
Case Study: Cargonexx.
Leveraging Machine Learning Techniques for Realtime Pricing in B2B Truck Logistics.
Automated pricing is delicate when it comes to dynamic changing prices with no real current market price. We present challenges and approaches in this pricing area, from the development of a pricing engine for a logistics platform to deriving the current price for each transport request in realtime (

4 Tipos de Estratégias de Investimento em Bolsa e # 8211; Investing, Speculation, Trading & # 038; Bogleheads.
A negociação é um fenômeno relativamente recente, possibilitado pela tecnologia das redes de comunicação e pelo desenvolvimento do ticker do papel. Detalhes das transações de estoque & ndash; símbolos de estoque, o número de ações e os preços & ndash; were collected and transmitted on paper strips to machines located in brokerage offices across the country. Os funcionários especializados que usam suas notas de memória, papel e lápis, e habilidades analíticas, lêem & rdquo; as fitas e fazer pedidos para comprar ou vender ações em nome de suas empresas empregadoras.
As a young trainee on Wall Street in the early 1960s, I remember the gray-haired, bespectacled old men bent over and concentrating on the inch-wide tapes spooling directly into their hands from the ticker. À medida que a tecnologia melhorava para oferecer acesso eletrônico direto a cotações de preços e análise imediata, trading & ndash; comprando e vendendo grandes posições de ações para capturar lucros a curto prazo e ndash; became possible for individual investors.
Enquanto o termo & ldquo; investing & rdquo; é usado hoje para descrever a qualquer um e a todos que compram ou vendem um título, economistas como John Maynard Keynes aplicaram o termo de maneira mais restritiva. Em seu livro, "A Teoria Geral do Emprego, Interesse e Dinheiro", & rdquo; Keynes distinguiu entre investimento e especulação. Ele considerou que o primeiro era uma previsão dos lucros de uma empresa, enquanto o outro tentava entender a psicologia dos investidores e seu efeito sobre os preços das ações.
Benjamin Graham & ndash; que alguns consideram ser o pai da análise de segurança e ndash; concordou, escrevendo que o desaparecimento da distinção entre os dois era "motivo de preocupação" em seu livro 1949 The Intelligent Investor. Enquanto Graham reconheceu o papel dos especuladores, ele sentiu que "havia muitas maneiras em que a especulação poderia ser pouco inteligente".
Embora existam diferenças observáveis ​​nos objetivos e métodos das diferentes filosofias, seus profissionais bem sucedidos compartilham características de caráter comuns:
Intelligence . Investidores, especuladores e comerciantes bem-sucedidos devem ter a capacidade de coletar e analisar dados diversos, mesmo conflitantes, para tomar decisões lucrativas. Confiança. Success in the securities market often requires taking a position in opposition to the majority view. Como Warren Buffett aconselhou em um editorial do New York Times, "tenha medo quando os outros são gananciosos, e seja ganancioso quando os outros estão com medo". Em uma carta aos acionistas da Berkshire Hathaway, ele observou a Regra de Noé: “A previsão da chuva não conta. Building arks faz. & Rdquo; Humility . Despite one’s best preparation, intention, and effort, errors occur and losses inevitably happen. Knowing when to retreat is as important as knowing when to dare. Como Sir John Templeton, fundador da família de fundos mútuos com o nome dele, disse: "Só uma coisa é mais importante do que aprender com a experiência, e isso não é aprender com a experiência." Esforço. Christopher Browne, a partner in the New York brokerage firm Tweedy, Browne Company LLC and author of “The Little Book of Value Investing,” afirmações, & ldquo; O investimento em valor requer mais esforço do que o cérebro e muita paciência. It is more grunt work than rocket science.” The same applies to intelligent speculation or active trading. Reconhecer e traduzir padrões de preços e tendências de mercado exige diligência constante; success in the stock market requires hours of research and learning the skills to be successful.
1. Investir.
Investors intend to be long-term owners of the companies in which they purchase shares. Tendo selecionado uma empresa com produtos ou serviços desejáveis, sistemas eficientes de produção e entrega e uma equipe de gerenciamento inteligente, eles esperam lucrar à medida que a empresa aumenta suas receitas e lucros no futuro. In other words, their goal is to buy the greatest future earnings stream for the lowest possible price.
Em 26 de maio de 2010, falando antes da Comissão de Inquérito da Crise Financeira, Warren Buffett explicou seu motivo para comprar uma garantia: “Você olha para o ativo em si para determinar sua decisão de obter algum dinheiro agora para obter mais algum dinheiro de volta mais tarde. , e você não se preocupa se há uma citação abaixo dela [em] tudo. & rdquo; Quando Buffett investe, ele não se importa se eles fecham o mercado há alguns anos, já que um investidor procura uma empresa pelo que produzirá, e não o que outra pessoa esteja disposta a pagar pelo estoque.
Investors use a valuation technique known as “fundamental or value analysis.” Benjamin Graham is credited with the development of fundamental analysis, the techniques of which have remained relatively unchanged for almost a century. Graham was primarily concerned with the metrics of companies.
De acordo com o professor Aswath Damodaran da Stern School of Business da New York University, Graham desenvolveu uma série de filtros ou telas para ajudá-lo a identificar valores mobiliários subvalorizados:
PE do estoque menos do que o inverso do rendimento em Aaa Corporate Bonds PE do estoque inferior a 40% da sua média PE nos últimos cinco anos Dividend yield superior a dois terços do Aaa Corporate Bond Yield Preço inferior a dois Terceiros do valor contábil Preço inferior a dois terços do ativo circulante líquido O valor do endividamento (valor contábil) deve ser inferior a um Ativo circulante superior ao dobro de passivo circulante Dívida inferior ao dobro de ativos circulantes históricos Crescimento histórico do EPS (nos últimos 10 anos) superior a 7% Não mais do que dois anos de ganhos negativos ao longo da década anterior.
Warren Buffett, a disciple and employee of Graham’s firm between 1954 and 1956, refined Graham’s methods. Em uma carta de 1982 aos acionistas da Berkshire Hathaway, ele advertiu os gerentes e os investidores tanto para entender "os números contábeis são o começo, e não o final, da avaliação de negócios". & Rdquo;
Buffett procura empresas com forte vantagem competitiva para que a empresa possa obter lucros ano após ano, independentemente do ambiente político ou econômico. Sua perspectiva quando ele decide investir é sempre a longo prazo. As he explained in another shareholder letter, “Our favorite holding period is forever.”
A Morningstar considerou Philip Fisher como o "lq", um dos grandes investidores de todos os tempos & rdquo; & ndash; as such it is not surprising that he concurred with Buffett and Graham, preferring a long holding period. Em um artigo de setembro de 1996 da Associação Americana de Investidores Individuais (AAII), Fisher é creditado com a recomendação de que "os investidores usam uma regra de três anos para julgar os resultados se uma ação está abaixo do mercado mas nada aconteceu para mudar". a visão original do investidor. & rdquo; Após três anos, se ainda estiver com baixo desempenho, ele recomenda que os investidores vendam as ações.
Investors seek to reduce their risks by identifying and purchasing only those companies whose stock price is lower than its “intrinsic” valor, um valor teórico determinado através de análise fundamental e comparação com os concorrentes e o mercado como um todo. Os investidores também reduzem o risco, diversificando suas participações em diferentes empresas, indústrias e mercados geográficos.
Uma vez que se posicionam, os investidores se contentam em manter ações atualizadas por anos. Fisher manteve a Motorola (MOT) desde sua compra em 1955 até sua morte em 2004; Buffett comprou ações da Coca-Cola (KO) em 1987 e disse publicamente que nunca venderia uma parcela.
Alguns participantes do mercado podem considerar uma filosofia de investimento baseada em ações conservadoras com longos períodos de espera para serem desatualizadas e chatas. Eles fariam bem em lembrar as palavras de Paul Samuelson, vencedor do Nobel em Ciências Econômicas, que aconselhou, “Investir deveria ser mais como observar tinta seca ou grama crescendo. Se você quiser emoção, pegue US $ 800 e vá para Las Vegas. & Rdquo;
2. Speculation.
According to Philip Carret, author of “The Art of Speculation” em 1930 e fundador de um dos primeiros fundos mútuos nos Estados Unidos, a especulação é a compra ou venda de títulos ou commodities na expectativa de lucro por flutuação em seus preços. & rdquo; Garret combinou a análise fundamental divulgada por Benjamin Graham com os conceitos usados ​​por leitores de fitas iniciais, como Jesse Lauriston Livermore, para identificar as tendências gerais dos preços do mercado.
Milton Friedman, escrevendo em Em Defesa da Especulação Desestabilizadora em 1960, observou que grande parte do público equipara a especulação ao jogo, sem valor como uma filosofia de investimento. No entanto, Friedman afirma que os especuladores muitas vezes têm uma vantagem de informação sobre os outros, permitindo que eles ganhem lucros quando outros menos conhecedores perdem. In other words, speculation could be defined as the buying and selling of securities based upon a perceived advantage in information.
Paul Mladjenovic, um planejador financeiro certificado (CFP) e autor de quatro edições de "Stock Investing for Dummies", & nd; Explicou melhor o ponto de especulação: "Você está colocando o seu dinheiro onde você acha que o resto do mercado estará colocando seu dinheiro" & ndash; antes que isso aconteça. & rdquo;
Jesse Lauriston Livermore, named the “most fabulous living U. S. stock trader” em um artigo de 1940, desenvolveu sua habilidade de compra e venda de ações em bucket shops & ndash; negócios desregulamentados que eram o equivalente dos salões de apostas fora da pista de hoje, onde os clientes apostavam no movimento dos preços das ações, de acordo com a Bloomberg. No securities changed hands, and the transactions did not affect share prices on stock exchanges. A habilidade de Livermore para detectar e interpretar padrões no movimento dos preços das ações rapidamente o transformou em persona non grata nas lojas, bem como os contadores de cartões são proibidos nos casinos de Las Vegas e Atlantic City.
Mas o foco da Livermore sobre os preços das ações e os padrões de suas mudanças de preços permitiram que ele identificasse & ldquo; pontos de pivô & rdquo; & ndash; agora conhecido como níveis de suporte e resistência e ndash; that guided his buys and sells. Ele comprou ações à medida que se recuperaram de um nível de suporte, e os vendeu quando eles se aproximaram de um nível de resistência. Livermore entendeu que os estoques se movem nas tendências, mas podem mudar rapidamente a direção de acordo com o clima dos participantes no mercado de ações. Nesse sentido, em seu livro "Reminiscences of a Stock Operator", & rdquo; he advocated a strategy of quickly cutting losses and letting profits run.
Outras regras de negociação de ações da Livermore incluem o seguinte:
Compre ações em alta e venda ações em queda. Negocie apenas quando o mercado é claramente otimista ou descendente; depois troque em sua direção geral. Nunca perdas médias comprando mais um estoque que caiu. Nunca encontre uma chamada de margem & ndash; saia do comércio. Vá por muito tempo quando as ações atingirem uma nova alta; vender curto quando atingem uma nova baixa.
Livermore também observou que os mercados nunca estão errados, embora muitas vezes as opiniões sejam. Como conseqüência, ele advertiu que nenhuma estratégia de negociação poderia gerar lucro 100% do tempo. Livermore e outros seguindo uma filosofia semelhante estão dispostos a estar à margem & ndash; fora do mercado & ndash; até que uma oportunidade de lucro seja prontamente aparente.
As técnicas utilizadas por Livermore evoluíram para o que agora é conhecido como análise técnica, estendendo os pontos de pivô de Livermore para padrões de preços e volume mais esotéricos de mudanças de preços, como padrões de cabeça e ombros, médias móveis, bandeiras, galhautes e indicadores de força relativa. Técnicos liderados por John Magee e Roberts Edwards & ndash; autores do que muitos afirmam ser a Bíblia da especulação de preços, & ldquo; Análise Técnica de Stock Trends & rdquo; & ndash; afirmam que a maior parte das informações que os "fundamentalistas [investidores"] estudam são história passada, já desatualizada e estéril, porque o mercado não está interessado no passado ou mesmo no presente! In brief, the going price, as established by the market itself, comprehends all the fundamental information which the statistical analyst can hope to learn (plus somewhat is perhaps secret from him, known only to a few insiders) and much else besides of equal or even greater importance.”
O pressuposto subjacente de especulação ou análise técnica é que os padrões se repetem, então uma revisão dos preços passados ​​e atuais, interpretada corretamente, pode projetar os preços futuros. A suposição foi contestada em 1970 por Eugene Fama, professor de finanças da Universidade de Chicago e ganhador do prêmio Nobel, com a publicação de seu artigo "Mercados de Capital Eficientes: Uma Revisão da Teoria e do Trabalho Empírico". no Journal of Finance. Fama proposed that securities markets are extremely efficient, and that all information is already discounted in the price of security. Como conseqüência, ele sugeriu que nenhuma análise fundamental ou técnica ajudaria um investidor a alcançar retornos maiores do que um portfólio selecionado aleatoriamente de ações individuais.
Suas idéias se tornaram popularmente encapsuladas como a Hipótese do Mercado Eficiente (EFH). Ao reconhecer críticas da EFH, Dr. Burton Malkiel & ndash; economista, decano da Escola de Gestão de Yale, e autor de & ldquo; A Random Walk Down Wall Street & rdquo; & ndash; defende a hipótese. Ele afirma que os mercados de ações são muito mais eficientes e muito menos previsíveis do que alguns trabalhos acadêmicos nos fazem acreditar, e o comportamento dos preços das ações não cria uma oportunidade de negociação de carteira que permita aos investidores obter retornos extraordinariamente ajustados ao risco. ;
Enquanto a batalha acadêmica pelo EFH continua, os adeptos da análise técnica & ndash; especuladores e ndash; continue a adotar a filosofia como o melhor método para escolher momentos ótimos de compra e venda.
Avanços em tecnologia, baixas taxas de comissão e a aparência de corretoras on-line permitiram que indivíduos empregassem ferramentas e sistemas de sofisticação crescente para seguir e interpretar o mercado. Indivíduos e firmas de Wall Street adotaram uma nova filosofia de negociação, com muitos empregando programas de inteligência artificial e algoritmos complexos para comprar e vender posições de ações gigantescas em microssegundos.
Um comerciante é alguém que compra e vende títulos dentro de um curto período de tempo, muitas vezes mantendo uma posição inferior a um único dia de negociação. Effectively, he or she is a speculator on steroids, constantly looking for price volatility that will enable a quick profit and the ability to move on to the next opportunity. Ao contrário de um especulador que tenta prever preços futuros, os comerciantes se concentram nas tendências existentes e ndash; com o objetivo de fazer um pequeno lucro antes que a tendência final. Os especuladores vão para o depósito de trem e os trens da placa antes de embarcarem; os comerciantes correm o corredor à procura de um trem que está se movendo & ndash; quanto mais rápido, melhor & ndash; and hop on, hoping for a good ride.
A maior parte da negociação ocorre através das instituições financeiras & rsquo; sistemas programados para analisar as tendências dos preços e fazer pedidos. A emoção é removida da decisão de compra e venda; Os negócios são inseridos automaticamente se e quando critérios específicos forem alcançados. Às vezes referido como "negociação algorítmica ou de alta frequência (HFT)", & rdquo; os retornos podem ser extraordinariamente elevados. Um estudo acadêmico de HFTs de 2016 revelou que os custos fixos das empresas de HFT são inelásticos, de modo que as empresas que comercializam com mais freqüência ganham mais lucros do que as empresas com menos transações com retornos comerciais que variam de 59,9% a quase 377%.
O impacto do comércio de alta freqüência e as empresas envolvidas na atividade permanecem controversas; a 2014 Congressional Research Service report detailed instances of price manipulation and illegal trading methods such as detailed in Michael Lewis’ livro & ldquo; Flash Boys. & rdquo; Também há preocupações de que a negociação automatizada reduza a liquidez do mercado e exacerba as principais perturbações do mercado, como o crash do mercado e recuperação de 6 de maio de 2010 - ndash; a Média Industrial Dow Jones caiu 998,5 pontos (9%) em 36 minutos. A similar crash happened August 24, 2015 when the Dow fell more than 1000 points at the market open. A negociação foi interrompida mais de 1.200 vezes durante o dia em um esforço para acalmar os mercados.
Embora poucas pessoas tenham a capacidade financeira de imitar os hábitos comerciais das grandes instituições, o dia comercial tornou-se uma estratégia popular no mercado de ações. De acordo com um relatório California Western Law Review, o dia comercial continua a atrair adeptos, mesmo que 99% dos comerciantes do dia acreditem acabar ficando sem dinheiro e sair. Muitos tornam-se comerciantes do dia devido à sedução de empresas de treinamento de comércio diário, uma indústria não regulamentada que lucram com a venda de instruções e software de negociação automatizada para seus clientes. Os materiais de vendas implicam que o software é semelhante aos programas de software sofisticados e dispendiosos dos grandes comerciantes, como o Goldman Sachs.
O dia de negociação não é fácil nem para todos. De acordo com Chad Miller, sócio-gerente da Maverick Trading, & ldquo; Todo mundo o glorifica [dia de negociação], mas é o trabalho duro e o hellip; você só pode ligar o computador e comprar um estoque e esperar que você ganhe dinheiro. & Rdquo; O comércio diário geralmente envolve dezenas de negócios por dia, na esperança de lucros pequenos por comércio e uso de margem & ndash; dinheiro emprestado & ndash; da corretora. In addition, margin traders who buy and sell a particular security four or more times a day in a five-day period are characterized as “pattern day traders,” e sujeito a regras de margem especiais com um saldo de patrimônio exigido de pelo menos US $ 25.000.
Apesar do número de novos comerciantes de dias que entram no mercado a cada ano, muitas empresas de valores mobiliários e conselheiros desencorajam abertamente a estratégia. O Motley Fool afirma que o & ldquo; day trading isn & rsquo; t apenas como o jogo; é como jogar com o baralho empilhado contra você e a casa deslizando um bom pedaço de qualquer lucro direto do topo.
4. Bogleheads (Index Fund Investing) – A New Philosophy.
Frustrado por retornos incoerentes e os requisitos de tempo para efetivamente implementar uma estratégia fundamentalista ou especuladora, muitos compradores de títulos se voltaram para a gestão de portfólio profissional através de fundos mútuos. De acordo com o Perfil do Instituto de Investimento, o Perfil dos Acionistas do Fundo Mútuo, em 2015, quase 91 milhões de pessoas possuíam um ou mais fundos mútuos em meados de 2015, representando um quinto dos domicílios e rsquo; ativos financeiros. Infelizmente, o Instituto aprendeu que poucos gerentes de fundos podem constantemente vencer o mercado por longos períodos de tempo. De acordo com o New York Times, & ldquo; A verdade é que poucos investidores profissionais realmente conseguiram superar o aumento do mercado ao longo desses anos [2010-2015]. & Rdquo;
Influenciado pelos estudos de Fama e Samuelson, John Bogle, ex-presidente do Wellington Management Group, fundou o Grupo Vanguard e criou o primeiro fundo do índice administrado passivamente em 1975. Agora conhecido como o Vanguard 500 Index Investor Shares com um investimento mínimo de US $ 3.000, é o precursor de muitos fundos indexados similares administrados pela Vanguard & ndash; including the largest index mutual fund in the world, the Vanguard 500 Index Fund Admiral Shares, with assets of $146.3 billion and a minimum investment requirement of $10,000.
Apesar dos céticos da indústria sobre o investimento em índices, a confiança da Bogle na indexação foi inabalável. The following statements express his views, and is the basis of his book, “The Little Book of Common Sense Investing: The Only Way to Guarantee Your Fair Share of Stock Market Returns.”
Os investidores, como grupo, não podem superar o mercado porque são o mercado. Os investidores como grupo devem subavaliar o mercado, porque os custos de participação & ndash; principalmente despesas operacionais, taxas de assessoria e custos de transação de carteira e ndash; constituem uma dedução direta do retorno do mercado. Most professional managers fail to outpace appropriate market indexes, and those who do so rarely repeat in the future their success in the past.
O fundo foi inicialmente ridicularizado como & ldquo; Bogle & rsquo; s Folly & rdquo; by many, including Forbes in a May 1975 article entitled “A Plague on Both Houses.” (A revista oficialmente retraiu o artigo pelo escritor de Forbes, William Baldwin, em um artigo de 26 de agosto de 2010.) O presidente da Fidelity Investments, Edward C. Johnson III, duvidou do sucesso do novo fundo do índice, dizendo: "eu posso" acredito que a grande massa de investidores esteja satisfeita com apenas retornos médios. O nome do jogo é ser o melhor. & Rdquo; Fidelity subsequently offered its first index fund – o Spartan 500 Index Fund & ndash; em 1988 e oferece hoje mais de 35 fundos indexados.
With the success of index mutual funds, it is not surprising that exchange traded funds (ETFs) emerged 18 years later with the issue of the S&P 500 Depository Receipt (called the “spider” for short). Similar to the passive index funds, ETFs track various security and commodity indexes, but trade on an exchange like a common stock. No final de 2014, o ICI informou que havia 382 fundos do índice com ativos totais de US $ 2,1 trilhões.
Múltiplos estudos confirmaram a afirmação da Bogle, que a superação do mercado é praticamente impossível. O Dr. Russell Wermers, professor de finanças da Universidade de Maryland e um co-autor de & ldquo; Descobertas falsas no desempenho do fundo mútuo: Medindo a sorte na estimativa de Alphas, & rdquo; afirmou em um artigo no The New York Times que o número de fundos que derrubaram o mercado ao longo de suas histórias inteiras é tão pequeno que os poucos que fizeram eram "ldquo; apenas sortudo". & rdquo; Ele acredita que tentar escolher um fundo que superaria o mercado é & ldquo; quase sem esperança. & Rdquo;
Alguns dos maiores investidores da América concordam:
Warren Buffett. O sábio de Omaha, em sua carta de 1996 aos acionistas da Berkshire Hathaway, escreveu: "A maioria dos investidores institucionais e individuais descobrirá que a melhor maneira de adquirir ações ordinárias é através de um fundo de índice que cobra taxas mínimas". Dr. Charles Ellis. Escrevendo no Financial Analysts & rsquo; Journal in 2014, Ellis said, “The long-term data repeatedly document that investors would benefit by switching from active performance investing to low-cost indexing.” Peter Lynch. Descrito como uma & ldquo; lenda & rdquo; by financial media for his performance while running the Magellan Fund at Fidelity Investments between 1977 and 1980, Lynch advised in a Barron’s April 2, 1990 article that “most investors would be better off in an index fund.” Charles Schwab. O fundador de um dos maiores corretores de desconto do mundo, a Schwab recomenda que os investidores devam comprar fundos do índice. Pode não parecer muita ação, mas é a coisa mais inteligente a fazer. & Rdquo;
Adherents to index investing are sometimes referred to as “Bogle-heads.” O conceito de comprar fundos de índice ou ETFs em vez de títulos individuais geralmente inclui alocação de ativos e ndash; uma estratégia para reduzir o risco em uma carteira. Owning a variety of asset classes and periodically re-balancing the portfolio to restore the initial allocation between classes reduces overall volatility and ensures a regular harvesting of portfolio gains.
Nos últimos anos, um novo tipo de gerenciamento profissional capitalizando esses princípios e ndash; conselheiros-robôs & ndash; tornou-se popular. Os novos conselheiros sugerem investimentos de carteira e proporções de cada um alocado em ETFs com base na idade e objetivos do cliente. As carteiras são automaticamente monitoradas e reequilibradas por taxas substancialmente mais baixas do que os gerentes de investimentos tradicionais.
Palavra final.
Stock market profits can be elusive, especially in the short term. Como conseqüência, aqueles que procuram maximizar seus retornos sem incorrer em risco indevido buscam constantemente a estratégia perfeita para orientar sua atividade. Até agora, ninguém descobriu ou desenvolveu uma filosofia ou estratégia de investimento válida em 100% do tempo. Investment gurus come and go, praised for their acumen until the inevitable happens and they join the roster of previously humbled experts. No entanto, a busca de uma perfeita filosofia de investimento continuará.
Como participante do mercado de valores mobiliários, você deve reconhecer que a posse de títulos pode ser estressante. Assim como você não conhece os eventos de amanhã e como os investidores reagirão a notícias e rumores, então você não tem a certeza de lucros no mercado de ações. So enjoy those days when fortune and goals come together, but remember and prepare for the times of disappointment, for they will be many.
O que orienta suas decisões para comprar e vender títulos? Você já teve sucesso com uma das filosofias acima?
Artigos relacionados.
Michael Lewis.
Michael R. Lewis é um executivo e empresário aposentado. Durante sua carreira de mais de 40 anos, a Lewis criou e vendeu dez empresas diferentes, desde a exploração de petróleo até o software de saúde. Ele também foi Conselheiro de Investimento Registrado com a SEC, um Principal de uma das maiores empresas de consultoria de gestão do país, e um Vice-Presidente Sênior da maior seguradora de saúde sem fins lucrativos nos Estados Unidos. Os artigos de Mike sobre investimentos pessoais, gestão de negócios e economia estão disponíveis em várias publicações on-line. Ele é pai e avô, que também escreve peças não-ficcionais e biográficas sobre crescer nas planícies do oeste do Texas - incluindo The Storm.
Junte-se a 102,863 Inscritos.
Inscreva-se abaixo para receber gratuitamente o boletim informativo do Money Crashers!
Recomendado.
Read More from Money Crashers.
Você deve pagar pela educação universitária do seu filho?
20 maneiras de ensinar as crianças a economizar dinheiro com responsabilidade em qualquer idade.
Como se preparar para uma queda de energia & # 038; O que fazer para sobreviver sem eletricidade.
O que fazer com seus negócios vencidos do Groupon & # 8211; 8 estratégias comprovadas.
25 maneiras de economizar dinheiro ao viajar em aeroportos.
Programa de IRS C deduções fiscais # 038; Despesas para pequenos empresários.
Prazo de apresentação de impostos, atrasos de reembolso e devida diligência.
Back to Top of Page Copyright © 2018 SparkCharge Media, LLC. Todos os direitos reservados.

International Schools and ICT.
Using the power of research to inform ICT integration in education.
How Does Literacy Transform the Human Brain?
Dehaene, Stanislas. “Inside the Letterbox: How Literacy Transforms the Human Brain.” Cerebrum ( 2013 ).
Learning to read is a major event in a child’s life. Cognitive neuroscience shows why: compared to the brain of an illiterate person, the literate brain is massively changed, mostly for the better—through the enhancement of the brain’s visual and phonological areas and their interconnections—but also slightly for the worse, as the displacement of the brain’s face-recognition circuits reduces the capacity for mirror invariance. Once children learn to read, their brains are literally different. Now that we understand exactly which circuits are changed by reading education, we may start thinking about how to optimize this process, particularly for children who struggle in school. Training preschoolers with just a few hours of GraphoGame—fun software that links graphemes and phonemes—is enough to enhance the representation of letters in the cortex. By monitoring children’s progress by their behavior as well as by brain imaging, we now have all the necessary tools to better understand what schools do and facilitate enhanced learning strategies.
What Do Students Use Their Laptops for During Teacher Instruction?
Blikstad-Balas, Marte. “Digital Literacy in Upper Secondary School-What Do Students Use Their Laptops for During Teacher Instruction.” Nordic Journal of Digital Literacy 2 (2012): 2012.
The present study uses video recordings and qualitative interviews to examine the digital literacy practices of Norwegian students who have a personal laptop for school use. It uses the dichotomy between dominant school texts and vernacular out-of-school texts to examine the new school literacy practices. Findings indicate that the teachers’ use of visual technologies such as Power Point presentations in whole-class settings generates a variety of individual digital literacy practices among the students.
What kinds of digital didactical designs do teachers apply in their iPad - classes in schools?
Jahnke, Isa, Lars Norqvist, and Andreas Olsson. “Designing for iPad-classrooms.” ECSCW 2013 Adjunct Proceedings (2013).
Our study explores Digital Didactics Designs using mobile technology in co - located settings. Classroom observations and qualitative data were collected in a Danish community where 200 teachers and 2,000 students aged 6-16 use iPads in classrooms implemented in 2012. Based on the theoretical framework called Digital Didactics (DD), five patterns of Digital Didactical Designs and following the innovative designs, three key aspects could be explored: The teachers’ digital didactical designs embrace a) new learning goals where more than one correct answer exists, b) focus on learning as a process in informal-in-formal learning spaces, c) making learning visible in different products (e. g., text, comics, podcasts). The study informs system developers for mobile learning applications in schools and teachers as workplace designers.
How can Google Blogs (Blogger) Promote Interactive Learning Communities in K-6 Language Arts Classes?
Beatty, Mia. “Integrating Google Blogs into the K-6 Language Arts Classroom To Promote Interactive Learning Communities.” (2013).
Bringing literacies into a classroom is not an easy task for a teacher, especially when two-thirds of teachers feel underprepared to use technology in the classroom (Barone & Wright, 2008). This online instructional module was designed to introduce K-6 educators to using Google Blogs (Blogger) in the classroom to promote interactive learning communities. Google Blogs was selected because of its enormous user base, ease of use, free access, and privacy features. Graduate students and educators voluntarily participated in this web-based module by taking pre - and post-assessments, and attitudinal surveys. The module engaged participants using short quizzes, videos, and images. The results indicate that after the module, participants felt more comfortable integrating an online tool such as Google Blogs into their classroom to promote interactive learning communities.
Can Early Years Students Independently Create Music With iPads?
Hodgson, Sarah. “Early Years students can use higher order thinking skills to independently create content in music using touch interface technology.” (2013).
This action research project was initiated to examine the use of touch interface technology, namely tablet computers, with students in the Early Years. It was an attempt to discover how tablets could best be utilized with young learners. The research indicates that young learners are capable of using higher order thinking skills to create their own content, in this case musical compositions, using tablet technology. It proposes that Early Years students should take active and independent roles in the creation of their own works in order to demonstrate a more powerful understanding of their world.

Theories of mathematical learning and understanding.
According to Romberg (Grouws, 1992), there is no general agreement on the definition of learning, how learning takes place and what constitutes reasonable evidence that learning has taken place. Some say it is observable changes in behavior, others that it means acquiring new knowledge, and other say that it is the creating of a disequilibrium.
Psychologists have made different philosophic assumptions about the nature of the learning process. Those who hold that learning is determined by the forming connections between the environment stimuli and useful responses are called associationist. A representative of this view, E. B. Thorndike (1922), recommended that in mathematics, for example, students perform much drill and practice on correct procedures and facts to strengthen correct mental bonds. Associationists also argued that curricula should be structured to keep related concepts well separated, so that students did not form incorrect ties.
By 1943, the behaviorists were maintaining that a real science of education could be built only on direct observation. Absent from the research and discourse of behaviorists were "thinking", "meaning" or other such unobservable and possibly nonexistent phenomena. Though behaviorists, led by B. F. Skinner, denied the theory of "mental bonds" that associationist had put forth, their prescriptions for mathematics teaching were similar: drill and practice, with reinforcement by reward for desirable behavior in the form of correct answers and punishment for undesired behavior. The behaviorists brought to the educational scene programmed learning curricula and new standardized testing techniques. In the study of teaching "process-product" researchers searched for types of teaching behavior that led to greater student achievement.
During that same time there existed other views of knowledge and learning. In 1916 Dewey said that "It is that reconstruction or reorganization of experience which adds to the meaning of experience, and which increases ability to direct the course of subsequent experience" (p.89). In another occasion Dewey (1938) wrote that "I use the word understanding rather than knowledge because . knowledge to so many people means 'information.' Information is knowledge about things (it is static), and there is no guarantee that understanding-the spring of intelligent action-will follow from it"(p.48). Brownell (1935) maintained that although incidental learning could help counteract the practice of teaching mathematics as an isolated subject, it did not provide an organization in which "the meaningful concepts and intelligent skills requisite to real arithmetical ability" could be developed. Brownell wrote about a theory of instruction in which making "sense" of what was learned was the central issue in arithmetic instruction. Piaget and his coworkers who interviewed hundreds of children, proposed that in learning, children pass through developmental stages and that the use of active methods which gives scope to spontaneous research by the child help him rediscover or reconstruct what is to be learned "not simply imparted to him" (Piaget, 1973, p.23).
Piaget's research and theory, is called developmental constructivism (Romberg, 1969), and maintains that children acquire number concepts and operations by construction from the inside and not by internalization. Piaget (1968) pointed out that every normal student is capable of good mathematical reasoning if attention (and care) is directed to activities of his interest, and if by this method the emotional inhibitions that too often give him a feeling of inferiority in lessons in mathematics are removed.
In contrast to Piaget's explanation of construction, Vygotsky (1986) presented an alternate theory where imbalance and not equilibrium is considered normal.
According to Jean Piaget (1979), human intellectual development progresses chronologically through four sequential stages. The order in which the stages occur have been found to be largely invariant, however the ages at which people enter each higher order stage vary according to each person's hereditary and environmental characteristics.
Piaget defined intelligence as the ability to adapt to the environment. Adaptation takes place through assimilation and through accommodation, with the two processes interacting throughout life in different ways, according to the stage of mental development.
In assimilation, the individual absorbs new information, fitting features of the environment into internal cognitive structures. In accommodation, the individual modifies those internal cognitive structures to conform to the new information and meet the demands of the environment. A balance is maintained through equilibration, as the individual organizes the demands of the environment in terms of previously existing cognitive structures. A child moves from one stage of cognitive development to another through the process of equilibration, through understanding the underlying concept so that the understanding can be applied to new situations. Equilibration is a balance between assimilation and accommodation.
The stages of cognitive development that Piaget distinguished are four: (Piaget, 1968)
Sensorimotor (0-2 years of age) - children begin to use imitation, memory and thought. They begin to recognize that objects do not cease to exist when they are hidden from view. They move from reflex actions to goal-directed activity.
Preoperational (2-7 years) - Children gradually develop language and the ability to think in symbolic form. They are able to think operations through logically in one direction and they have difficulty seeing another persons point of view.
Concrete operational (7-11 years) - Children are able to solve concrete (hands-on) problems in logical fashion. They understand the laws of conservation and are able to classify and seriate. They also understand reversibility.
Formal operational (11-15 years of age) - Children are able to solve abstract problems in logical fashion. Their thinking becomes more scientific, they develop concerns about social issues and about identity.
Piaget suggested that when children do not understand or have difficulty with a certain concept, it is due to a too-rapid passage from the qualitative structure of the problem (by simple logical reasoning - e. g. a ball existing physically) to the quantitative or mathematical formulation (in the sense of differences, similarity, weight, number, etc.). Conditions that can help the child in his search for understanding according to Piaget is the use of active methods that permit the child to explore spontaneously and require that "new truths" be learned, rediscovered or at least reconstructed by the student not simply told to him (Piaget,1968). He pointed out that the role of the teacher is that of facilitator and organizer who creates situations and activities that present a problem to the student. The teacher must also provide counterexamples that lead children to reflect on and reconsider hasty solutions. Piaget argued that a student who achieves a certain knowledge through free investigation and spontaneous effort will later be able to retain it. He will have acquired a methodology that serves him for the rest of his life and will stimulate his curiosity without risk of exhausting it.
A third type of knowledge that Piaget suggests is social or conventional knowledge. He said that it is always through the external educational action of family surroundings that the young child learns language, which Piaget (1973) called is an "expression of collective values." Piaget pointed out that without external social transmission (which is also educational) the continuity of collective language remains practically impossible.
There are three types of feelings or emotional tendencies, according to Piaget, that affect the ethical life of the child, that are first found in his mental constitution. In the first place is the need for love, which plays a basic role in development in various forms from the cradle to adolescence. There is a feeling of fear of those who are bigger and stronger than himself, which plays an important role in his conduct. The third is mixed, composed of affection and fear at the same time. It is the feeling of respect that is very important in the formation or exercise of moral conscience.
Noddings (1990a) points out certain characteristics that constructivist teachers must have an ethical commitment to inquiry in order to aid students in their investigations, and the receptivity and responsiveness of an ethic of care which involves sharing and listening to students, taking interest in their purposes as well as in those of the teachers' truth.
A constructivist view of knowledge implies that knowledge is continuously created and reconstructed so that there can be no template for constructivist teaching (Peterson & Knapp, 1993). Since this point of view holds that learning involves student's constructing their own knowledge, this leads to a redefinition of the teachers' role to one of facilitator. This also leads to teaching that emphasizes the importance of listening to and valuing students' perception, even when their understanding differs from conventional knowledge (Cochran, Barson & Davis, 1970).
Cognitive scientists and mathematics educators who favor the cognitive science approach have moved well beyond Piaget in describing the way the mind operates. There has been a shift from an organic language of Piaget to a language "highly colored" of computers, (Noddings 1990b) with words such as networks, connections, paths, frames, etc.
As a cognitive position, constructivism maintains that all knowledge is constructed, as Piaget's theories hold. Not only are intellectual processes themselves constructive but are themselves products of continued construction. It can be said that the construction and subsequent elaboration of new understandings is stimulated when established structures of interpretation do not permit or accept a new situation or idea. This clash (not understanding) produces a disequilibrium that lead to mental activity and the modification of previously held ideas to account for the new experience (Simon & Schifter, 1991).
Hiebert and Carpenter (1992) propose a framework for considering understanding from the constructivist.
perspective which would shed light on analyzing a "range of issues related to understanding mathematics." They make a.
distinction between the external and internal representation of mathematical ideas, pointing out that, to think and.
communicate mathematical ideas, people need to represent them in some way. Communication requires that the representations be external, taking the form of spoken language, written symbols, drawings or concrete objects.
Mathematical ideas becomes tangible when people can express them. By learning to express their ideas to one another,
students can begin to appreciate the nuance of meaning that natural language often masks, but that the precise language.
of mathematics attempts to distinguish (Lo, Wheatley, & Smith, 1994; Silver, Kilpatrick & Schlesinger, 1990; Lesh,
Post & amp; Behr, 1987).
The Curriculum and Evaluation Standards for School Mathematics of the National Council of Teachers of Mathematics (1989) point out in the Standard on Communication that understanding mathematics can be defined as the ability to represent a mathematical idea in multiple ways and to make connections among different representations. In order to think about mathematical ideas these need to be represented internally but these mental representations are not observable. This has led cognitive science to consider mental representations as a field of study (Ashcraft, 1982; Greeno, 1991; Hiebert & Carpenter, 1992) .
Connections between external representations of mathematical ideas can be constructed by the learner (Hiebert & Carpenter, 1992) between different fortes of the same idea or between related mathematical ideas. These connections are often based on relationships of similarity or of differences. Connection within the same representation are formed by detecting patterns and regularities.
The relationship between internal representations of ideas constructs a network of knowledge. Understanding then is the way information is represented, so that a mathematical idea, procedure or fact is understood if it is part of an internal network. Networks of mental representations are developed gradually as new information is connected to the network or new ties are constructed between previously disconnected information. Understanding grows as the networks become larger and more organized and can be limited if connections are weak or do not exist becoming useless (Hiebert & Carpenter, 1992).
Although the image of adding to existing networks is appealing in its simplicity, it may turn out that the image is too simple. Studies have suggested that students in the act of building understanding reveal a much more chaotic process (Hiebert, Wearne & Taber, 1991). There have been a number of studies in which the process of learning and understanding are of central interest: Cobb, Wood, Yackel, Nichols, Wheatley, Trigatti & Perlwitz (1991); Carpenter, Fennema, Peterson, Chiang & Loef (1989); Doyle (1988); Baroody, (1985); Hiebert & Wearne (1988).
Children are natural learners and the environment both social and physical offers them many opportunities to acquire notions of quantity. Even in very poor or diverse cultures, races or classes, children have the opportunity to acquire quantitative notions (Gelman 1980; Ginsburg, Posner & Russel1,1981; Ginsburg & Russell, 1981).
Each healthy human brain, no matter the age, sex, race or culture, comes equipped with a set of unique features: the ability to detect patterns and to make approximations, a capacity for various types of memory, the ability to self-correct and learn from experience and external data and self reflection, and an great capacity to create (Came & Caine 1994). Because of this predisposition of the brain, children and adults constantly search for ways to make sense and make connections. This can be translated into a search for common patterns and relationships as Hiebert and Carpenter (1992) propose.
Caine and Caine (1994) argue that brain research confirms that multiple complex and concrete experiences are essential for meaningful learning and teaching. They add that the brain is designed as a "pattern detector" and that the function of educators should be to provide students with the kind of experiences that enable them to perceive "the patterns that connect."
Children from a very young age are sensitive to quantity. They perceive differences in number; they see correlation among different numbers of events; their actions contain quantity and they use words referring to basic mathematical events (Gelman, 1980; Ginsburg, 1989). Various studies (Ginsburg & Baron, 1993; Starkey & Cooper, 1980; Van de Walle & Watkins, 1993) have pointed out the importance of taking into account children's informal mathematical connections as building block for formal mathematics. Ginsburg (1989) suggests that students need to learn that it is acceptable, "even desirable", for them to connect conventional arithmetic with their own informal knowledge, intuition and invented procedures.
In a study by Carpenter, Ansell, Franke, Fennema and Weisbeck (1993), the results suggest that children can solve a wide range of problems, including problems involving multiplication and division, much earlier than is generally presumed. With only a few exceptions, children's strategies could be characterized as representing or modeling the action or relationships described in the problem. These researchers conclude that young children's problem-solving abilities have been seriously underestimated. They suggest that if from an early age children are motivated to approach problem solving as an effort to make sense out of problem situations, they may come to believe that learning and doing mathematics involves solving problems in a way that always makes sense.
The use of manipulatives in mathematics.
For years mathematics educators have advocated using a variety of forms to represent mathematical ideas for students. Physical three-dimensional objects are often suggested as especially useful. Despite the intuitive appeal of using materials, investigations of the effectiveness of the use of concrete materials have yielded mixed results (Bednarz & Janvier, 1988; Bughardt, 1992; Evans, 1991; Hestad, 1991; Hiebert, Wearne, & Taber, 1991; Simon, 1991; Thompson, J., 1992).
P. Thompson (1994) suggests that the apparent contradictions in studies using manipulatives are probably due to aspects of instruction and students' engagement to which the studies did not attend. Evidently, just using concrete materials is not enough to guarantee success according to Baroody (1989). The total instructional environment must be looked into to understand the effective use of concrete materials. In a project by Wesson (1992) for grades 1 and 2, which emphasized exploratory activities with manipulatives, the results suggested that while a much wider range of content than in standard books or tests was covered, there was no loss of arithmetic skills.
Children understand when using concrete materials if the materials are presented in a way that helps them connect with existing networks or construct relationships that prompt a reorganization of networks. It is important to consider then, the internal networks that students already carry with them and the classroom activities that promote construction of relationships between internal representations (Hiebert et al, 1991). Manipulatives then can play a role in students' construction of meaningful ideas. Clements and McMillan (1996) and others suggest they should be used before formal instruction, such as teaching algorithms. Clements and McMillan propose that concrete knowledge can be of two type: "sensory-concrete" which is demonstrated when students use sensory materials to make sense of an idea; and "integrated concrete" which is built through learning. Integrated concrete thinking derives its strength from the combination of many separate ideas in an interconnected structure of knowledge. When children have this type of interconnected knowledge, the physical objects, the actions they perform on the objects, and the abstractions they make are all interrelated in a strong mental structure.
Ross and Kurtz (1993) offers the following suggestions when planning a lesson involving the use of manipulatives. He suggests that the mathematics teacher should be certain that:
1. manipulatives have been chosen to support the lesson's objectives;
2. significant plans have been made to orient students to the manipulatives and corresponding classroom procedures;
3. the lesson involves the active participation of each student;
4. the lesson plan includes procedures for evaluation that reflect an emphasis on the development of reasoning skills.
Invented strategies and number sense.
In the last few years there have been studies about the idea of students' constructing their own mathematical knowledge rather than receiving it in finished form from the teacher or a textbook (Carpenter, Ansell, Franke, Fennema, Weisbeck, 1993; Markovits & Sowder, 1994). A crucial aspect of students' constructive processes is their inventiveness (Piaget, 1973). Children continually invent ways of dealing with the world. Many of the errors they make can be.
interpreted as a result of inventions (Ginsburg & Baron, 1993; Peterson, 1991). Similarly, in school mathematics, students rely many times on invented strategies to solve a variety of problems (Carpenter, Hiebert, & Moser, 1981; Carraher & Schliemann, 1985; Ginsburg, 1989). Kamii and Lewis (1993) and Madell (1985) have reported successful work in programs where children are not taught algorithms, but are encouraged to invent their own procedures for the basic operations. Treffers (1991) suggests a similar program in the Netherlands and Baker & Baker (1991) in Australia.
Various studies have been made in the area of invented strategies. Cook and Dossey's (1982) findings show that children learn number facts easily and quickly and recall them better when using a strategy approach than when using a learned algorithm, drill or practice approach. Browne (1906); Howe and Ceci (1979); Kouba (1989); Rathmill (1978);
Sowder and Wheeler (1989) have done studies on strategies used for calculation. Carpenter and Moser (1984) found that children in the United States ordinarily invent a series of abbreviated and abstract strategies to solve addition and subtraction problems during their first four years in school. Romberg and Collis (1987) found that even though some children are limited by their capacity to handle information, most are able to solve a variety of problems by inventing strategies that have not been taught. English (1991) observed that in a study of young children's combinatoric strategies, a series of six increasingly sophisticated solution strategies were identified. A significant number of children independently adopted more efficient procedures as they progressed on the task.
A study by Markovits and Sowder (1994) examined the effect of an intervention in the instruction of seventh grade students for the purpose of developing number sense. Instruction was designed to provide diverse opportunities for exploring numbers, number relationships, and number operations and to discover rules and invented algorithms. Measures taken several months later revealed that after instruction students seem more likely to use strategies that reflected number sense and that this was a long-term change. Rathmill (1994) suggests that planning for instruction that promotes the development of children's thinking and reasoning about mathematics not only helps them make sense of the content they are studying, but also helps them learn ways of thinking that later will enable them to make sense of new content. Lampert (1986) proposed that "a sense-making" atmosphere is necessary and that arithmetic should make sense in terms of children's own experience. Reynolds'(1993) study suggests that children's imaging activity is at the heart of their sense making and problem solving. Silver, Shapiro and Deutsch (1993) found that students' performance was adversely affected by their dissociation of sense making from the solution of school mathematics problems and their difficulty in providing written accounts of their thinking and reasoning.
In the Everybody Counts document from the National Research Council (1989) the major objective of elementary school mathematics is the development of "number sense". The Curriculum and Evaluation Standards for School Mathematics (NCTM 1989) also includes number sense as a major theme throughout its recommendations. Greeno (1991) interprets number sense as "a set of capabilities for constructing and reasoning with mental models." This perspective he argues, provides reasons that support considering various aspects of number sense as features of students' general condition of knowing in the area of numbers and quantities, rather than skills that should be given specific instruction. The term number sense refers to several important but elusive capabilities according to Greeno, capabilities including flexible mental computation, numerical estimation and quantitative judgment. Flexible mental computation according to Greeno involves recognition of equivalence among objects that are decomposed and recombined in different ways.
Reys et al. (1991) describe number sense in the following manner:
Number sense refers to an intuitive feeling for numbers.
and their various uses and interpretations; an.
appreciation for various levels of accuracy when.
figuring; the ability to detect arithmetical errors,
and a common-sense approach to using numbers. Acima.
all, number sense is characterized by a desire to make.
sense of numerical situations (pp.3-4)
Sowder and Schappelle (1994) suggest that there are common elements found in classrooms that help children acquire good number sense:
1. Sense-making is emphasized in all aspects of mathematical learning and instruction.
2. The classroom climate is conducive to sensemaking. open discussions about mathematics occurs both in small groups and with the whole class.
3. Mathematics is viewed as the shared learning of an intellectual practice. This is more than simply the acquisition of skills and information. Children learn how to make and defend mathematical conjectures, how to reason mathematically and what it means to solve a problem.
Mental Computation.
Mental computation according to Trafton (1986) refers to nonstandard algorithms for computing exact answers. It is also referred to as the process of calculating an exact arithmetic result without the aid of an external computational or recording aid. (Hope, 1986; Reys, 1986). It is recognized as both important and useful in everyday living as well as valuable in promoting and monitoring higher-level mathematical thinking (Reys et al., 1995). It has been recognized in the Curriculum and Evaluation Standards for School Mathematics (NCTM, 1989) that increased attention should be given to mental computation. A National Statement on Mathematics for Australian Schools (Australian Education Council and the Curriculum Corporation, 1991) was released in 1991 recommending substantial change in emphasis among mental, written and calculator methods of computation and between approximate and exact solutions. A major objective is to redirect the computational curriculum in schools to reflect a balance in the emphasis on methods of solution. Before the Statement, the curriculum was divided as: 75% written computation, 25% Calculator, Estimation, Mental Computation. With the new statement it would be 25% for each method of computation.
According to Boulware (1950) mental arithmetic has its origin during the second quarter of the nineteenth century. The idea of building a broader foundation of meaning and understanding in arithmetic gave rise to Mental Arithmetic as it was known in the middle of the nineteenth century with Warren Colburn (1841) considered as pioneer in the field of mental arithmetic. Before his time, arithmetic had reached a point of extreme abstraction according to Boulware. The second half of the century witnessed the decline in interest and understanding of the purpose of mental arithmetic. With the coming of more writing paper, cheap pencils, with the rise of industry and its accompanying needs for persons skilled in computation, the practical or computational phase of arithmetic took on importance around the turn of the century. The emphasis in arithmetic at that time was the teaching of isolated facts, followed by drill upon these facts. High among the purposes stated for the study of arithmetic many authors of the time placed speed, memory and accuracy by mechanical rules. There was an emphasis in arithmetic on drill for perfection and automatic response at the expense of meaning and understanding. In 1950, a dissertation by Boulware is representative of the quest for the development of "meaning" in mental computation stirred by Brownwell (1935), who urged that meaning and seeing sense in what is being learned should be the central focus of arithmetic instruction. Boulware's conception of mental computation is as follows: Mental arithmetic deals with number as a unified, consistent system, and not as an aggregate of unrelated facts. [It] consists of methods of dealing with numerical situations whereby a clear concept of the number system may be conceived and utilized in quantitative thinking. It proceeds to the analysis of number combinations by processes of meaningful experiences with concrete numbers, reflective thinking in number situations, seeing relationships, and discovery of new facts as an outgrowth of known facts (pp.7-8). In 1960, in an article by Sister Josefina there seems to begin interest in mental computation and in the 1978 NCTM yearbook on computational skills there appears an article by Trafton (1978) where the need for including proficiency with estimation and mental arithmetic as goals for the study of computation is presented. A good number of studies and articles about mental computation appeared in the period of the 1980s (e. g. Reys, R. E., 1984, 1985; Reys, B. J., 1985a, 1985b; Madell, 1985; Hope, 1985, 1986, 1987; Reys & Reys, 1986; Langford, 1986; Markovits and Sowder, 1988; Baroody, 1984, 1985, 1986, 1987, 1989 and others) leading up to the statement of the inclusion of mental computation as an area where increased attention is needed in school mathematics by the NCTM (1989). With the increase of studies in cognitive skills and number sense (e. g.Simon, 1979; Resnick, 1986; Silver, 1987; Schoenfeld, 1987; Greeno, 1980; Sowder, 1988) and more recent studies mentioned in this chapter, mental computation is suggested to be related to number sense, needed for computational estimation skills and considered a higher order thinking skill.
In a study by Reys, Reys and Hope (1993) they argued that the low mental computation performance reported in this study most likely reflected students' lack of opportunity to use mental techniques they constructed based on their own mathematical knowledge. The study of Reys, Reys, Nohda and Emori (1995) assessed attitude and computational preferences and mental computation performance of Japanese students in grades 2, 4, 6, and 8. A wide range of performance on mental computation was found with respect to all types of numbers and operations at each grade level. The mode of presentation (visual or oral) was found to significantly affect performance levels, with visual items generally producing higher performance. The strategies used to do mental computation were limited, with most subjects using frequently a mental version of a learned algorithm.
In a study by G. W. Thompson (1991) about the effect of systematic instruction in mental computation upon fourth grade students' arithmetic, problem-solving and computation ability, a significant difference favored the group taught mental computation, with girls improving more than boys.
According to Markovits and Sowder (1994) it would seem reasonable that if children were encouraged to explore numbers and relations through discussions of their own and their peers' invented strategies for mental computation, their intuitive understanding of numbers and number relations would be used and strengthened. Okamoto (1993) found that children's understanding of the whole number system seemed to be a good predictor of their performance on word problems.
Cross-cultural research has identified a variety of mental computation strategies generated by students, (e. g. Hope & Sherill, 1987; Markovits & Sowder, 1988) and the difference in mental computation in an out of school and in-school context (e. g. Ginsburg, Posner, & Russell, 1981; Pettito & Ginsburg, 1982). Sribner (1984) points out that individuals develop invented procedures suited to the particular requirements of their particular occupations.
In a study on individuals who are highly skilled in mental arithmetic (Stevens 1993), forty-two different mental strategies were observed. Efficient, inefficient and unique strategies were identified for each of five groups (grade 8). Dowker (1992) describes in a study the strategies of 44 academic mathematicians on a set of computational estimation problems involving multiplication and division of a simple nature. Computational estimation was defined as making reasonable guesses as to approximate answers to arithmetic problems, without or before actually doing the calculation. Observing people's estimation strategies, Dowker suggests, may provide information not only about estimation itself, but also about people's more general understanding of mathematical concepts and relationships. From this perspective Dowker concludes that estimation is related to number sense. Sowder (1992) who agrees with this position points out that computational estimation requires a certain facility with mental computation.
In a study by Beishuizen (1993), he investigated the extent to which an instructional approach in which students use of the hundreds board supported their acquisition of mental computation strategies. In the course of his analysis, he found it necessary to distinguish between two types of strategies for adding and subtracting quantities expressed as two digit numerals as follows:
1. 1010 strategy - 49 + 33 -> 40 + 30 -> 9 + 3 = 12.
2. N10 strategy - 49 + 33 -> 49 + 30 -> 79 + 3 = 82.
Beishuizen's analysis indicates that N10 strategies are more powerful, but that many weaker students used only 1010 strategies. The study's findings also suggest that instruction involving the hundreds board can have a positive influence on a student's acquisition of N10 strategies. Fuson and Briars (1990) and others have also identified these strategies.
Hope (1987) points out that because most written computational algorithms seem to require a different type of reasoning than mental algorithms, an early emphasis on written algorithms may discourage the development of the ability to calculate mentally. Lee (1991) recommends that perhaps it is time to investigate changing our traditional algorithms for addition and subtraction to left-to-right procedures.
According to Reys et al. (1995) there have been many studies that suggest the benefit of developing mental computation strategies. Mental computation has also been highlighted in the Curriculum and Evaluation Standards for School Mathematics (NCTM, 1989).
Mental computation can be viewed from the behaviorist perspective as a basic skill that can be taught and practiced. But it can also be viewed from the constructivist view in which the process of inventing the strategy is as important as using it. In this way it can be considered a higher-order thinking skill (Reys et al., 1995).
Addition , subtraction and teaching strategies.
The Curriculum and Evaluation Standards for School Mathematics (NCTM 1989) recognizes that addition and subtraction computations remain an important part of the school mathematics curriculum and recommends that an emphasis be shifted to understanding of concepts. Siegler (1988) indicated how important it is for children to have at least one accurate method of computation. In a study by Engelhardt and Usnick (1991) while no significant difference between second grade groups using or not using manipulatives was found, significant differences in the subtraction algorithm favored those taught addition with manipulatives. Usnick and Brown (1992) found no significant differences in achievement between the traditional sequence for teaching double-digit addition, involving nonregrouping and then regrouping, and the alternative, in which regrouping was introduced before non-regrouping examples in second graders.
Ohlsson, Ernst, and Rees (1992) used a computerized model to measure the relative difficulty of two different methods of subtraction, with either a conceptual or a procedural representation. The results of the use of the model suggested that regrouping is more difficult to learn than an alternative augmented method, particularly in a conceptual representation, a result that contradicts current practice in American schools. Dominick's (1991) study with third grade students suggested that students' confusion with the borrowing algorithm centered around a misunderstanding of what was being traded. Evans (1991) found that groups taught with pictorial representations or by rote learned to borrow in significantly less time than did a group using concrete materials in grades 2 and 3.
Sutton and Urbatch (1991) recommended the use of base-ten blocks, beans and bean sticks or beans and bean cups to serve as manipulatives to use for trading games and with the "transition board". (A modified version of the base ten board). They also emphasized that attempting to teach addition and subtraction without initially preparing the student with trading games could be counterproductive and result in lack of understanding due to lack of preparation. In a study which analyzed individual children's learning of multidigit addition in small groups in the second grade, results suggested that rarely did a child spontaneously link the block trades with written regrouping (Burghardt, 1992). Fuson and Briars (1990) and P. W. Thompson (1992) found that the base ten blocks could be a helpful support for children's thinking, but many children do not seem spontaneously to use their knowledge of blocks to monitor their written multidigit addition and subtraction. The Fuson and Briars study suggested that frequent solving of multidigit addition or subtraction problem accompanied by children's thinking about the blocks and evaluating their written marks procedure, might be a powerful means to reduce the occasional trading errors made by children. The study also suggested that counting methods that use fingers, are not necessarily crutches that later interfere with more complex tasks.
Fuson and Fuson (1992) found that in all of the groups studied, children were accurate and fast at counting up for subtraction as at counting on for addition. This contrasts with the usual finding that subtraction is much more difficult than addition over the whole range of development of addition and subtraction solution strategies. Sequence counting on and counting up according to Fuson and Fuson are abbreviated counting strategies in which the number words represent the addends and the sum. In both strategies the counting begins by saying the number word of the first addend. For example: 7 + 5, a child would say 7 pause 8, 9, 10, 11, 12 (up to five numbers, the last number of the sequence is the answer) and 12 - 5 would be, 5, pause 6, 7, 8, 9, 10, 11, 12, seven numbers were counted, which is the answer. Thornton's (1990) study provides evidence that children who were given an opportunity to learn a counting up meaning for subtraction as well as counting down (counting back from minuend), preferred the counting up meaning.
In a series of studies by Bright, Harvey and Wheeler (1985) they defined an instructional game as a game for which a set of instructional objectives has been determined. These instructional objectives may be cognitive or affective and are determined by the persons planning the instruction, before the game is played by the students who receive the instruction in it. The results of the studies suggest that:
games can be effective for more than drill and practice and for more than low level learning of skills and concepts, games can be used along with other instructional methods to teach higher level content such as problem solving, games should probably be used relatively soon before or after instruction planned by the teacher for the same material, the use of more challenge, fantasy or curiosity might enhance the effectiveness of instructional games.
Hestad (1991) found that the use of a card game was effective for third grade students in introducing new mathematical concepts and maintaining skills.
In a study by Cobb (1995) the use of the hundreds board by second graders' in a classroom where instruction was broadly compatible with recent reform recommendations (NCTM, 1989, 1991) was investigated. The role played by the use of the hundreds board over a 10-week period in supporting the conceptual development of four second graders was studied.
Particular attention was given to the transition from counting on to counting by tens and ones. The hundreds board.
is a ten-by-ten grid from either 0 to 99 or 1 to 100. The results indicated that the children's' use of the hundreds board did not support the construction of increasingly sophisticated concepts of ten. However, children's use of the hundred board did appear to support their ability to reflect on their mathematical activity once they had made this conceptual advance. The utility of the hundreds table in teaching computation has been also recognized by Beishuzen (1993);Hope, Leutzinger, Reys and Reys (1988); Thornton, Jones and Neal (1995) and Van de Walle and Watkins (1993) .
Teachers ' Pedagogical Beliefs about Mathematics Teaching Learning and Assessment.
We can learn more about how invisible components in the teaching and learning situation can contribute to or detract from the quality of the mathematical learning that takes place by focusing on the culture according to Nickson (1992). It is important, he points out, in exploring the mathematics classroom from the perspective of the culture, it generates, to remember that we are concerned with the people in the setting and what they bring to it. Nickson adds that we must increase our sensitivity to the importance of their hidden knowledge, beliefs, and values for mathematics education.
One of the major shifts in thinking in relation to teaching and learning of mathematics in recent years has been with respect to the adoption of differing views about the nature of mathematics as a discipline. The view of mathematics that has informed and historically transfixed most mathematics curriculum has been, according to Lakatos, (1976) one of considering that mathematics as consisting of "immutable truths and unquestionable certainty". Such a view does not take into account how mathematics changes and grows and is waiting to be discovered (Nickson, 1992). Brown and Cooney (1982) note that the intensity of the teachers' beliefs is very important in the classroom culture. The traditional detachment of mathematics content from shared activity and experience, so that it remains at an abstract and formal level, constructs barriers around the subject, according to Nickson, that sets it apart from others areas of social behavior. The message conveyed is that is has to be accepted unquestioningly and from which no deviation is permitted. The classroom culture will mirror this unquestioning acceptance. The visibility and acceptance of what is done or not done in mathematics are factors in stopping teachers from engaging in activities that they may instinctively feel are appropriate but might challenge the supposedly inviolable essence of mathematics as they themselves were taught.
In investigating the relationship between what teachers believe about how children learn mathematics and how those teachers teach mathematics, A. Thompson (1992) points out that studies have examined the congruence between teachers' beliefs and their practice and findings have not been consistent. Researchers such as Grant (1984) and Shirk (1973) have reported a high degree of agreement between teachers' professed views of mathematics teaching and their instructional practice, where as others have reported sharp contrasts (e. g. Carter, 1992; Cooney, 1988; Shaw, 1989; Thompson, 1984).
It has been argued (Nickson, 1988; Ball, 1993) that bringing teachers into the arena of research activity can be an important step in increasing their understanding of research processes and results and their relation to classroom practice. Each mathematics classroom will vary according to the actors within it. The unique culture of each classroom is the product of what teachers bring to it in terms of knowledge, beliefs, and values, and how these affect the social interactions within that context. The daily experiences of students in mathematics classes of teachers with positive attitudes were found to be substantially different from those of students in classrooms of teachers with negative attitudes in a study by Karp (1991). Overall, teachers with negative attitudes toward mathematics employed methods that fostered dependency and provided instruction which was based on rules and memorization, relied on an algorithmic presentation, concentrated on correct answers and neglected cognitive thought processes and mathematical reasoning, whereas teachers with positive attitudes were found to encourage student initiative and independence. Swetman (1991) found no significant relationship between teachers' mathematics anxiety and students' attitude toward mathematics in grades 3 to 6. Attitude toward mathematics however, became more negative as grade increased in teachers and students.
Teacher influence on student achievement.
At the time of a study by Good and Grouws, (1977), comparatively few studies had included observational measures that detail how the teacher functions as an independent variable in order to influence student achievement. Teacher effectiveness (as operationally defined in their study) appeared to be associated strongly with the following clusters: student initiated behavior; whole class instruction, general clarity of instruction, and availability of information as needed, a non-evaluative and relaxed learning environment which is task focused; higher achievement expectations; classrooms that are relatively free of major behavioral disorders. Brophy's (1986) study found that most investigative efforts had focused on curricular content and students' learning without careful consideration of teachers' instructional practices. Loef (1991) found that more successful teachers (in grade 1) represented differences among addition and subtraction problems on the basis of the action in the problem and the location of the unknown, and they organized their knowledge on the basis of the level of the children's understanding of the problem in context. Hiebert and Carpenter (1992) note that it seems evident that procedures and concepts should not be taught as isolated bits of information, but it is less clear what connections are most important or what kind of instruction is most effective for promoting these connections.
Teachers' influence on class content.
Even though some researchers have concluded that textbooks determine the content addresses in classrooms (Barr, 1988; Barr & Dreeben; 1983) others provide evidence to challenge that assertion (Freeman .& Porter, 1989; Stodolsky,1989) as Sosniak and Stodolsky (1993) have pointed out. In mathematics, Barr (1988) found that seven out of nine fourth-grade teachers used their textbooks by moving lesson by lesson through the book. In contrast, Freeman and Porter (1989) and Stodolsky (1989) found most mathematics teachers to be selective in their use of textbook lessons, problem sets, and topics, although topics not included in the texts were only occasionally added to the instructional program.
Research suggests that teachers are "gatekeepers" (Thornton, 1991) who make their own decisions about which parts of a textbook to use and which ways to use them (Barr & Sadow, 1989) and such decisions may not necessarily lead according Brophy (1982) to close adherence to the textbook material.
Sosniak and Stodolsky (1993) found in a study of four fourth-grade teachers that the influence of textbooks on teachers' thinking and on instruction was somewhat less than the literature indicates. Their results suggest that patterns of textbook use and thinking about these materials were not necessarily consistent across subjects even for a single teacher, and that the conditions of elementary teachers' work encouraged selective and variable use of textbook materials.
In a study by Stigler, Fuson, Ham, and Myong (1986), an analysis is made of addition and subtraction word problems in American and Soviet elementary mathematics textbooks. The data suggests that American children entering first grade can solve the simple kinds of addition and subtraction word problems on which American texts spend so much time.
Another study on text books is one by Ashcraft and Christy (1995) in which they study the frequency of arithmetic facts in elementary texts. The study tabulated the frequency with which simple addition and multiplication facts occur in elementary school arithmetic texts for grades 1-6. The results indicated a "small-facts bias" in both addition and multiplication. "Large" facts, with operands larger than 5, occurred up to half as frequently as those with operands in the 2-5 range. As was also found in an earlier tabulation for grades K-3, facts with operands of 0 and 1 occurred relatively infrequently, except for patterns like 1+2 and 1x3 which had a high frequency. The small facts bias in the presentation of basic arithmetic, at least to the degree observed, probably works against a basic pedagogical goal, mastery of simple facts. It may also provide a partial explanation of the widely reported problem size or problem difficulty effect, that children's and adults' responses to large basic facts are both slower and more error prone than their solutions to smaller facts.
In a study by Porter (1989) elementary school mathematics is used as a context for considering what could be learned from careful descriptions of classroom content. Teachers log and interviews show that large numbers of mathematics topics are taught for exposure with no expectation of student mastery: much of what is taught in one grade is taught in the next, skills typically receive 10 times the emphasis compared to either conceptual understanding or application, and depending on school and teacher assignments, mathematics instruction a student receives may be doubled or halved. Porter argues that "ultimately teachers must decide what is best for their students and within the limits of their own knowledge, time and energy." (p.15)
Teaching practices and their effects.
Koehler and Grouws (In Grouws, 1992) have suggested that teachers' behavior is influenced by their knowledge of: the mathematics content being taught, how students might learn or understand that particular content and of the methods of teaching of that particular content. Also influencing teachers' behaviors are teachers' attitudes and beliefs about teaching and mathematics.
Bush (1991) in a study about factors related to changes in elementary student's anxiety found that mathematics anxiety tended to decrease as teachers in grades 4-6 spent more time in small group instruction, had more years of experience, and took more post-bachelor's mathematics courses. According to a study by Tangretti (1994), findings indicated that the elementary teachers that participated in the study were not adequately prepared to meet NCTM expectations. Their teaching focus was found to be an algorithmic approach with emphasis on numeration and computation. Lack of confidence in content areas beyond arithmetic were reported as contributing to the lack of preparedness of elementary teachers to implement innovative curriculum. Wood, Cobb and Yackel (1991) report that after participating in a study, changes occurred in a teacher's (second grade) beliefs about the nature of mathematics (from rules and procedures to meaningful activity), about learning (from passivity to interacting) and about teaching (from transmitting information to guiding students' development of knowledge). A similar result was reported in a study by Zilliox (1991). In-service elementary school teachers felt they were teaching more and better mathematics lessons, were more comfortable with student use of hands-on materials and with managing small groups, and had a different sense of student capabilities and different expectations for student behavior after participating in the study.
A study by Carpenter, Fennema, Peterson, Chiang, and Loef (1989) investigated teachers' use of knowledge from research on children's mathematical thinking and how their students' achievement is influenced as a result. Although instructional practices were not prescribed, the teachers that participated in the treatment activities taught problem solving significantly more and number facts significantly less than did control teachers. Treatment teachers encouraged students to use a variety of problem-solving strategies, and they listened to processes their students used significantly more than did the control group teachers and knew more about individual students problem-solving processes.
Teachers and assessment issues.
A view of learners as passive absorbers of facts, skills, and algorithms provided by teachers is a basis for much of the most current use of measures (Stenmark, 1991). Standard achievement tests according to Kamii and Lewis (1991) measure students' abilities to recall and apply facts and routines presented during instruction. Some items require only the memorization of detail; other items, although designed to assess higher-level learning outcomes, often require little more than the ability to recall a formula and to make the appropriate substitutions to get the answer (Lambdin, 1993). Test items of this type are consistent with the view of learning as a passive, receptive process, a process which is additive and incremental. O.
practice of scoring answers to items of this type (right or wrong) is consistent with the view that "bits" of knowledge or skills are either present or absent in the learner at the time of testing. Under this approach, diagnosis is simply a matter of identifying the missing pieces of knowledge in the student, thereby creating a need for remedial teaching. In the constructivist view of teaching, the student is a participant in building his own understanding. The learner does not absorb new ideas and data but rather constructs his own version and relates it to existing information (Wilson, 1992). In order to help the student construct firm connections in the sense of the constructivist theory, the teacher can contribute by facilitating time for auto-evaluating, reflection on processes and ideas, auto-monitoring procedures like journals, portfolios, rechecking work (Sanford, 1993; Stenmark, 1989, 1991; NCTM, 1995). These are all metacognitive processes that can be strengthened through these practices. Metacognition refers to one's knowledge of one's own cognitive processes and products, and of the cognition of others. It also refers to self-monitoring, regulation and evaluation of the cognitive activity (Silver & Marshall, 1990). According to Beyer (1988), metacognition involves thinking about how one thinks as well as thinking to make meaning. For assessment and monitoring of student learning, an implication of the constructivist view is that teachers must measure understanding and models that individual students construct for themselves during the learning process (Webb & Romberg, 1992) . Accordingly, achievement could be better defined and measured not in terms of number facts and procedures that the student can reproduce, but in terms of best estimates of his or her level of understanding of key concepts and interrelated underlying principles (Wilson, 1992) .
A survey to investigate teacher awareness of alternative assessment of students in mathematics of (n=126) public school teachers in primary (K-2), elementary (3-5), middle school (6-8) and high school (9-12) showed that significant differences in awareness of alternative assessment practices exists among the four levels (Drury, 1994). In another study, (Watts, 1993) which is a description of the implementation of the Curriculum Standards for School Mathematics (NCTM, 1989) in grades K-3, it was found that teachers used in their tests, knowledge level items significantly more frequently than higher level items, and items with manipulative materials significantly more than items without manipulatives. Alternative assessment formats were considered significantly more difficult to use.
In a study on the influence of district standardized testing on mathematics instruction for grades 3 and 8 (Kolitch, 1993) it was reported that in two school districts, the curriculum was aligned to test content; in a third district with an innovative mathematics program, the district test had little influence on mathematics instruction, but the program was in jeopardy because of decreasing computation scores. Kamii and Lewis (May 1991) also report a similar finding of achievement testing in primary mathematics as perpetuating lower-order thinking. According to an achievement test, traditional instruction produced results as good as or better than, a constructivist program in second grade. Such tests were created within a framework of mathematics which Kamii and Lewis argue does not measure understanding.

Комментарии

Популярные сообщения из этого блога

Berex penipuan forex

Análise de estratégias de negociação universal

Corretores forex áustria