Grupo de Estudos em Aprendizagem de Máquina
  • Seminário – 08 de Outubro

    Publicado em 06/10/2020 às 8:46

    Aplicação de Machine Learning e Ferramentas Estatísticas para Modelagem e Análise de Falhas em Aerogeradores

    Palestrante: Vitor Pohlenz – AQTech

    Resumo: Atualmente a energia eólica demonstra significativa expressividade na matriz elétrica brasileira. Esse tipo de geração de energia exige, todavia, uma grande quantidade de máquinas em operação, uma vez que cada unidade de geração eólica (aerogerador) possui uma capacidade relativamente baixa de geração em comparação, por exemplo, com unidades de geração hidrelétricas. Dessa forma, o grande número de equipamentos gera um desafio para equipes de operação e manutenção dos parques eólicos. Nesse contexto, o presente trabalho tem como foco central a utilização de uma metodologia baseada em ferramentas matemáticas e estatísticas, além de modelos de Machine Learning como o Gradient Tree Boosting, para modelar o comportamento de componentes dos aerogeradores, bem como estabelecer limites de normalidade para as curvas características (Curvas S) de cada aerogerador. Assim, busca-se desenvolver uma ferramenta de auxílio na identificação de problemas ou comportamentos anormais, ajudando dessa forma as equipes de operação e manutenção no aumento da vida útil e minimização de custos de reparos dos aerogeradores.

    Data: 08/10/2020 às 16h.

    Local: Link da webconferência aqui.


  • Colóquio – 02 de Outubro

    Publicado em 06/10/2020 às 7:41

    Teoremas NFL: uma discussão sobre projetos em Machine Learning

    Apresentador: prof. Edson Cilos Vargas Júnior

    Resumo:
    Neste seminário vamos discutir os Teoremas NFL (No free Lunch) de David Wolpert e a sua importância (teórica e prática) em Machine Learning, sobretudo nas principais etapas de um projeto na área. Responderemos se existe um modelo bala de prata capaz de resolver todos os nossos problemas e qual a relação dessa discussão com a equação que todos os cientistas de dados e gestores precisam conhecer

    OBS: O link no YouTube contém duas apresentações, a primeira delas do William Velasco, que apresentou sobre “A álgebra parcial em um grupo como álgebra de convolução de uma categoria” e em torno dos 27”55′ iniciou-se a apresentação dos Teoremas NFL.

    Bonus:
    ao final da apresentação houve uma conversa sobre oportunidades para matemáticos 🙂

    Gravação disponível aqui


  • Seminário – 23 de Setembro de 2020

    Publicado em 16/09/2020 às 17:02

    Aplicação de Aprendizado de Máquina na classificação de microplásticos no oceano

    Palestrantes: Henrique de Medeiros Back (Doutorando PGMAT/UFSC) e Edson Cilos Vargas Júnior (MTM/UFSC)

    Resumo: Devido à inúmeras vantagens na utilização de polímeros, esses materiais são amplamente utilizados, desde componentes industriais a objetos de consumo diário, principalmente os descartáveis. Em consequência disso, muitos resíduos são produzidos e não são adequadamente geridos. Assim, o lixo plástico acumula na natureza, degrada-se em microplásticos e afeta negativamente os ecossistemas. Nesse contexto, o estudo e caracterização de microplásticos têm importância fundamental para melhor compreender a procedência, o destino e os impactos desse poluente na natureza. Todavia, o processo de análise convencional que consiste em busca por similaridade em bibliotecas espectrais e análise visual de um expert é laborioso e pouco preciso, reduzindo a quantidade e a qualidade de informações disponíveis.  Assim, este trabalho visa comparar diversos modelos de machine learning  para análise dos dados de Espectroscopia no Infravermelho por Transformada de Fourier (FTIR), com o intuito de classificar polímeros de maneira mais rápida e com maior confiabilidade. Com a aplicação de uma metodologia e de princípios de aprendizado de máquina, escolhemos o modelo que demonstra o melhor desempenho, comparando os resultados com trabalhos anteriores.

    Local: O link do seminário: https://meet.jit.si/mp_geam_ufsc

    Data: 23 de Setembro (quarta-feira)

    Horário:16h as 17h.


  • Seminário – 12 de Setembro de 2020

    Publicado em 31/08/2020 às 8:15

    Título: Machine Learning Tour
    Palestrante: Edson Cilos Vargas Júnior

    Resumo: Neste seminário será abordado modelos básicos em machine learning, tais como:  k-NN, Naive Bayes, Logistic Regression, Decision Tree, Random Forest e Support Vector Machine (SVM).  Em linhas gerais, será abordado conceitos intuitivos das técnicas, assim como suas formulações matemáticas e alguns aspectos da implementação computacional do sklearn.  No final da palestra discutiremos se existe um modelo bala de prata para todos os nossos problemas e qual a relação dessa discussão com a equação que todos os cientistas de dados e gestores precisam conhecer.

    Local: Clica Aqui!

    Data: 12 de Setembro (sábado)

    Horário: 10:00 as 11:50.


  • Seminário – 11 de Dezembro

    Publicado em 09/12/2019 às 14:05

    Título: O classificador de k vizinhos mais próximos em espaços métricos gerais

    Palestrante:  prof. Dr. Vladimir Pestov (UFBA / uOttawa)

    Resumo: O classificador k-NN ainda fica entre os classificadores mais usados na prática, mas tipicamente, apenas com uma distância euclidiana “default”. Ao mesmo tempo, o desempenho do classificador melhora sob uma escolha correta de distância no domínio, não necessariamente euclidiana. Vamos apresentar um panorâmico de trabalhos teóricos nesta área até agora, inclusive trabalho em andamento do palestrante, em parte junto com colaboradores.

    Local: Auditório Airton Silva, Dep. de Matemática, Sala 007 (Térreo).

    Data: 4a-Feira, dia 11 de Dezembro de 2019

    Horário: 10:30


  • Seminário 04 de Novembro

    Publicado em 30/10/2019 às 23:15

    Título: Inteligência artificial para um projeto de logística (SLIDES)

    Palestrante:  Dr. Martin Weilandt (mi Solutions & Consulting GmbH – Alemanha)

    Resumo: O mercado de cargas nas estradas européias atualmente é dominado por  negociações manuais de preços e uma análise combinatória de cargas compatíveis que podem levar horas. Uma startup alemã pretende automatizar esses processos para reduzir custos e o número de caminhões  necessários. Explicamos quais problemas surgem no nosso trabalho de consultoria  e como abordá-los por meio de análise de dados, aprendizagem de máquina e otimização.

    Embora usemos alguns vocábulos da matemática aplicada, a palestra não exige conhecimentos avançados de matemática.

    Local: Auditório Airton Silva, Dep. de Matemática, Sala 007 (Térreo).

    Data: 2a-Feira, dia 04 de Novembro de 2019

    Horário: 09:20

    OBS: A palestra será proferida a distância, podendo os participantes assistirem no auditório ou através do link da conferência. A prioridade para perguntas será dada aos participantes que estiverem presentes no auditório.

    LINK CONFERÊNCIA


  • Seminário 16/09/2019

    Publicado em 30/10/2019 às 23:06

    Título: Biologia de sistemas com aplicações em terapia celular e câncer

    Palestrante: Prof. Dr. Edroaldo Lummertz da Rocha (MIP -UFSC)

    Resumo: Células geram dados multidimensionais. Desenvolvimentos tecnológicos recentes  permitem a quantificação de transcriptomas e epigenomas em células individuais com resolução sem precedentes, possibilitando a identificação de novos tipos de células assim como  suas trajetórias de diferenciação e transformação oncogênica. Nessa palestra serão discutidos tópicos atuais em biologia de sistemas e análise de dados biológicos multidimensionais com aplicações em diferenciação celular e câncer.

    Local: Auditório Airton Silva, Dep. de Matemática, Sala 007 (Térreo),

    Data: 2a-Feira, dia 16 de Setembro de 2019

    Horário: 10:30


  • Seminário 23/08/2017

    Publicado em 11/08/2017 às 20:01

    O nosso seminário GEAM vai recomeçar na quarta 23 do Agosto, às 10
    horas, na sala 007 do Departamento de Matemática.

    Palestrante: Vladimir Pestov (UFSC / uOttawa)

    Título: A prova do lema de Johnson-Lindenstrauss sobre projeções aleatórias

    Resumo: Como já explicado pelo Douglas no nosso seminário, o lema de
    Johnson-Lindenstrauss, originalmente mostrado no contexto da análise
    funcional, tornou-se numa ferramenta importante da redução de
    dimensionalidade em várias partes da informática. Numa série de 3
    palestras, quero apresentar uma prova completa do lema, começando com
    alguns resultados matemáticos importantes por sua própria conta: uma
    construção da medida de Haar sobre a esfera euclideana, a concentração
    de medida sobre as esferas, etc.


  • Seminário 29/11/2016

    Publicado em 28/11/2016 às 12:12

    Nosso próximo seminário será do Prof. Douglas Soares Gonçalves, às 15h na sala 007 do Departamento de Matemática (Auditório do LAED).

    Título: Redução de Dimensionalidade: uma breve introdução

    Resumo: Discutiremos sobre o problema de representar um conjunto de pontos,
    originalmente em um espaço Euclidiano de dimensão alta,
    em um subespaço de dimensão menor de modo a preservar alguma característica
    do conjunto original (por exemplo, a distância entre pares de pontos ou a variância).

    Para tanto, apresentaremos os conceitos básicos de algumas técnicas
    de redução de dimensionalidade como PCA, MDS, Isomap e Laplacian eigenmaps.
    Projeções aleatórias e o lema de Johnson-Lindenstrauss também serão apresentados brevemente.
    Cada uma das técnicas será acompanhada de exemplos simples e (espero que) ilustrativos.

    Clique aqui para baixar os slides: dimred


  • Assuntos abordados em 2016

    Publicado em 22/11/2016 às 14:00

    Seminários já realizados:

    • Modelo probabilístico padrão da aprendizagem estatística, parte 1 (Prof. Vladímir Pestov, 11/10) – SLIDES
    • Modelo probabilístico padrão da aprendizagem estatística, parte 2 (Prof. Vladímir Pestov, 18/10) – SLIDES
    • Florestas Aleatórias (Prof. Aldrovando Araújo, 01/11)
    • Aplicação e mais Teoria sobre o método de Florestas Aleatórias (Prof. Vladímir Pestov e Prof. Melissa Mendonça, 10/11)
    • Machine Learning na perspectiva da indústria (Túlio Baars, 22/11)
    • Redução de Dimensionalidade: uma breve introdução (Prof. Douglas Soares Gonçalves, 29/11) – SLIDES.

    Referências bibliográficas:

    • V. Pestov, Foundations of statistical machine learning and neural networks. The Vapnik-Chervonenkis theory, University of Ottawa lecture notes, 2012, disponíveis aquí.
    • Shahar Mendelson, A few notes on statistical learning theory, In: Advanced Lectures in Machine Learning, (S. Mendelson, A.J. Smola Eds), LNCS 2600, pp. 1-40, Springer 2003, disponível aquí em postscript.
    • Luc Devroye, László Györfi and Gábor Lugosi, A Probabilistic Theory of Pattern Recognition, Springer-Verlag, New York, 1996. ISBN 0-387-94618-7.
    • Vladimir N. Vapnik, Statistical learning theory, John Wiley & Sons, Inc., New York, 1998. xxvi+736 pp. ISBN: 0-471-03003-1
    • Martin Anthony and Peter Bartlett, Neural network learning: theoretical foundations, Cambridge University Press, Cambridge, 1999. xiv+389 pp. ISBN: 0-521-57353-X
    • M. Vidyasagar, Learning and Generalization, with Applications to Neural Networks, 2nd Ed., Springer-Verlag, 2003.
    • Avrim Blum, John Hopcroft, Ravindran Kannan, Foundations of Data Science, version of May 14, 2015, disponível livremente aquí.
    • F. Cérou and A. Guyader, Nearest neighbor classification in infinite dimension, ESAIM Probab. Stat. 10 (2006), 340-355, disponível aquí.
    • Gérard Biau, Luc Devroye, and Gábor Lugosi, Consistency of random forests and other averaging classifiers, Journal of Machine Learning Research 9 (2008), 2015-2033, disponível aquí.