Criando um modelo com R Services

 

Olá pessoal! Neste post vou falar um pouco sobre o recurso R Services, que pertence à plataforma Microsoft SQL Server. Em breve uma versão similar deste artigo, porém um pouco mais completa do ponto de vista teórico, será publicada na revista SQL Magazine…vou compartilhar o link assim que tê-lo em mãos (aos assinantes). Agora, vamos para a nossa aventura em um dos mais recentes recursos de analytics da Microsoft! Na minha opinião, vale muito a pena testá-lo.

Criando sua própria cost function para penalizar overfitting com Python scikit-learn

Cost functions (ou funções de custo) são usadas pelos algoritmos de aprendizado de máquina para tomada de decisões, por exemplo, definir a melhor configuração dos hiper parâmetros de um modelo ou até mesmo escolher as melhores variáveis preditoras/independentes (em modelos de classificação ou regressão).

Métricas para avaliação de modelos

É comum validarmos os modelos de aprendizado de máquina sob duas perspectivas: Processual e matemática. O ponto de vista processual trata a questão da melhoria que o modelo trouxe para o processo de negócio em que o mesmo foi inserido. O levantamento destas informações geralmente está ligado a avaliação de dados básicos como tempo, custo ou lucro do processo antes e depois da implantação do modelo. Eventualmente testes de hipóteses podem auxiliar nestas atividades de comparação.

Desvendando o classificador Naive Bayes

Em problemas de classificação queremos encontrar a hipótese “h” para um determinada observação “o”, ou seja, queremos definir/prever uma classe para um dada observação. Uma maneira de se fazer isso é analisando o histórico dos dados e assim calcular a probabilidade para a hipótese “h”. Essa é a ideia básica por trás do teorema de Bayes.

Usando cross-validation para treinar e avaliar uma rede neural

Já falamos sobre resampling em um post anterior (veja aqui). Neste post veremos como aplicar validação cruzada, ou cross-validation, durante o treino de uma rede neural. Usaremos Keras para criar a rede neural e Scikit-Learn para aplicar a validação cruzada, ambas bibliotecas Python.

Seu primeiro modelo de redes neurais: teoria e prática na medida certa

Redes Neurais

O campo de estudo das redes neurais, em inglês também conhecido como Neural Networks ou Multilayer Perceptrons, tem como objetivo investigar como modelos biológicos simples do nosso cérebro podem ser usados para resolver problemas computacionais complexos (por exemplo, prever a ocorrência de um evento). Na prática, este campo tem como objetivo criar algoritmos e estruturas de dados capazes de resolver estes desafios.

Configurando Amazon EC2 para rodar modelos de deep learning com Keras

Neste post vamos utilizar os serviços da Amazon (Amazon Web Services – AWS) para subir uma instância que rode Keras para criar nosso projeto de aprendizado de máquina. Este cenário pode ser útil para processamento de grandes volumes de dados em modelos de deep learning.

Extraindo o máximo dos algoritmos com data transformation

Cada algoritmo de machine learning pode “aprender” melhor de acordo com o formato dos dados que recebe como entrada. Neste post vamos entender como podemos preparar nossos dados para extrair o máximo de “conhecimento” de cada algoritmo, tarefa conhecida como data transformation.

Análise exploratória de dados com R

Antes de começar a usar algoritmos de machine learning é importante entender a estrutura dos dados que temos em mãos. Por exemplo, presença de missing values, distribuição de variáveis, correlação, desvio padrão, etc. Chamamos esta atividade de análise exploratória de dados.