Grupo de Estudos em Aprendizagem de Máquina
  • Seminário – 11 de Dezembro

    Publicado em 09/12/2019 às 14:05

    Título: O classificador de k vizinhos mais próximos em espaços métricos gerais

    Palestrante:  prof. Dr. Vladimir Pestov (UFBA / uOttawa)

    Resumo: O classificador k-NN ainda fica entre os classificadores mais usados na prática, mas tipicamente, apenas com uma distância euclidiana “default”. Ao mesmo tempo, o desempenho do classificador melhora sob uma escolha correta de distância no domínio, não necessariamente euclidiana. Vamos apresentar um panorâmico de trabalhos teóricos nesta área até agora, inclusive trabalho em andamento do palestrante, em parte junto com colaboradores.

    Local: Auditório Airton Silva, Dep. de Matemática, Sala 007 (Térreo).

    Data: 4a-Feira, dia 11 de Dezembro de 2019

    Horário: 10:30


  • Seminário 04 de Novembro

    Publicado em 30/10/2019 às 23:15

    Título: Inteligência artificial para um projeto de logística (SLIDES)

    Palestrante:  Dr. Martin Weilandt (mi Solutions & Consulting GmbH – Alemanha)

    Resumo: O mercado de cargas nas estradas européias atualmente é dominado por  negociações manuais de preços e uma análise combinatória de cargas compatíveis que podem levar horas. Uma startup alemã pretende automatizar esses processos para reduzir custos e o número de caminhões  necessários. Explicamos quais problemas surgem no nosso trabalho de consultoria  e como abordá-los por meio de análise de dados, aprendizagem de máquina e otimização.

    Embora usemos alguns vocábulos da matemática aplicada, a palestra não exige conhecimentos avançados de matemática.

    Local: Auditório Airton Silva, Dep. de Matemática, Sala 007 (Térreo).

    Data: 2a-Feira, dia 04 de Novembro de 2019

    Horário: 09:20

    OBS: A palestra será proferida a distância, podendo os participantes assistirem no auditório ou através do link da conferência. A prioridade para perguntas será dada aos participantes que estiverem presentes no auditório.

    LINK CONFERÊNCIA


  • Seminário 16/09/2019

    Publicado em 30/10/2019 às 23:06

    Título: Biologia de sistemas com aplicações em terapia celular e câncer

    Palestrante: Prof. Dr. Edroaldo Lummertz da Rocha (MIP -UFSC)

    Resumo: Células geram dados multidimensionais. Desenvolvimentos tecnológicos recentes  permitem a quantificação de transcriptomas e epigenomas em células individuais com resolução sem precedentes, possibilitando a identificação de novos tipos de células assim como  suas trajetórias de diferenciação e transformação oncogênica. Nessa palestra serão discutidos tópicos atuais em biologia de sistemas e análise de dados biológicos multidimensionais com aplicações em diferenciação celular e câncer.

    Local: Auditório Airton Silva, Dep. de Matemática, Sala 007 (Térreo),

    Data: 2a-Feira, dia 16 de Setembro de 2019

    Horário: 10:30


  • Seminário 23/08/2017

    Publicado em 11/08/2017 às 20:01

    O nosso seminário GEAM vai recomeçar na quarta 23 do Agosto, às 10
    horas, na sala 007 do Departamento de Matemática.

    Palestrante: Vladimir Pestov (UFSC / uOttawa)

    Título: A prova do lema de Johnson-Lindenstrauss sobre projeções aleatórias

    Resumo: Como já explicado pelo Douglas no nosso seminário, o lema de
    Johnson-Lindenstrauss, originalmente mostrado no contexto da análise
    funcional, tornou-se numa ferramenta importante da redução de
    dimensionalidade em várias partes da informática. Numa série de 3
    palestras, quero apresentar uma prova completa do lema, começando com
    alguns resultados matemáticos importantes por sua própria conta: uma
    construção da medida de Haar sobre a esfera euclideana, a concentração
    de medida sobre as esferas, etc.


  • Seminário 29/11/2016

    Publicado em 28/11/2016 às 12:12

    Nosso próximo seminário será do Prof. Douglas Soares Gonçalves, às 15h na sala 007 do Departamento de Matemática (Auditório do LAED).

    Título: Redução de Dimensionalidade: uma breve introdução

    Resumo: Discutiremos sobre o problema de representar um conjunto de pontos,
    originalmente em um espaço Euclidiano de dimensão alta,
    em um subespaço de dimensão menor de modo a preservar alguma característica
    do conjunto original (por exemplo, a distância entre pares de pontos ou a variância).

    Para tanto, apresentaremos os conceitos básicos de algumas técnicas
    de redução de dimensionalidade como PCA, MDS, Isomap e Laplacian eigenmaps.
    Projeções aleatórias e o lema de Johnson-Lindenstrauss também serão apresentados brevemente.
    Cada uma das técnicas será acompanhada de exemplos simples e (espero que) ilustrativos.

    Clique aqui para baixar os slides: dimred


  • Assuntos abordados em 2016

    Publicado em 22/11/2016 às 14:00

    Seminários já realizados:

    • Modelo probabilístico padrão da aprendizagem estatística, parte 1 (Prof. Vladímir Pestov, 11/10) – SLIDES
    • Modelo probabilístico padrão da aprendizagem estatística, parte 2 (Prof. Vladímir Pestov, 18/10) – SLIDES
    • Florestas Aleatórias (Prof. Aldrovando Araújo, 01/11)
    • Aplicação e mais Teoria sobre o método de Florestas Aleatórias (Prof. Vladímir Pestov e Prof. Melissa Mendonça, 10/11)
    • Machine Learning na perspectiva da indústria (Túlio Baars, 22/11)
    • Redução de Dimensionalidade: uma breve introdução (Prof. Douglas Soares Gonçalves, 29/11) – SLIDES.

    Referências bibliográficas:

    • V. Pestov, Foundations of statistical machine learning and neural networks. The Vapnik-Chervonenkis theory, University of Ottawa lecture notes, 2012, disponíveis aquí.
    • Shahar Mendelson, A few notes on statistical learning theory, In: Advanced Lectures in Machine Learning, (S. Mendelson, A.J. Smola Eds), LNCS 2600, pp. 1-40, Springer 2003, disponível aquí em postscript.
    • Luc Devroye, László Györfi and Gábor Lugosi, A Probabilistic Theory of Pattern Recognition, Springer-Verlag, New York, 1996. ISBN 0-387-94618-7.
    • Vladimir N. Vapnik, Statistical learning theory, John Wiley & Sons, Inc., New York, 1998. xxvi+736 pp. ISBN: 0-471-03003-1
    • Martin Anthony and Peter Bartlett, Neural network learning: theoretical foundations, Cambridge University Press, Cambridge, 1999. xiv+389 pp. ISBN: 0-521-57353-X
    • M. Vidyasagar, Learning and Generalization, with Applications to Neural Networks, 2nd Ed., Springer-Verlag, 2003.
    • Avrim Blum, John Hopcroft, Ravindran Kannan, Foundations of Data Science, version of May 14, 2015, disponível livremente aquí.
    • F. Cérou and A. Guyader, Nearest neighbor classification in infinite dimension, ESAIM Probab. Stat. 10 (2006), 340-355, disponível aquí.
    • Gérard Biau, Luc Devroye, and Gábor Lugosi, Consistency of random forests and other averaging classifiers, Journal of Machine Learning Research 9 (2008), 2015-2033, disponível aquí.