PALESTRA

Ex-aluno da FURG ministra webinar em Ciência de dados nesta sexta, 14

Iniciativa parte do grupo Pier 32, composto por iTec/FURG-Embrapii, PRH 22 e Proiti

Acontece nesta sexta-feira, 14, o webinar “Modelagem de Sequências e Transformers”, ministrado pelo ex-aluno da FURG e atual pesquisador de pós-doutorado no Montreal Institute for Learning Algorithms (Canadá), Felipe Codevilla. A palestra abordará temas como ciência de dados e redes de deep learning, muito presentes no desenvolvimento tecnológico atual. O evento será transmitido pelo canal da FURG no Youtube, com início marcado para às 10h, e contará com a mediação do docente do Centro de Ciências Computacionais (C3), Alessandro de Lima Bicho, e do mestrando Júnior Costa de Jesus.

O Webinar foi idealizado pelo grupo Pier 32, composto pela unidade iTec/FURG – Embrapii; PRH-22: Tecnologias Digitais para os Ecossistemas Costeiro e Oceânicos; e Pró-reitoria de Inovação e Tecnologia da Informação (Proiti). Formada recentemente, essa cadeia de produção científica e inovação tecnológica promove, em conjunto, uma série de ações voltadas para a comunidade acadêmica, como a execução de webinars e um podcast – com episódio piloto em breve disponível no Spotify.

Ciência de Dados e redes de deep learning

De acordo com a diretora da unidade iTec/FURG, Silvia Botelho, o evento trata de um tema importante para o fazer científico e tecnológico na área de inovação. “A ciência de dados surge como um novo pilar do processo científico, onde novos modelos emergem da identificação automática de padrões e relações entre os dados observados”, explica. Neste contexto, existem as Redes Neurais Profundas (RNP), por exemplo, que são algoritmos de mapeamento que permitem aprender relações entre dados observados. “Arquiteturas sequenciais de RNPs mapeiam sequências de dados e informações, sendo utilizadas em aplicações envolvendo processamento de linguagem natural, tais como reconhecimento de voz, tradução, transformação de áudio em texto, processamento de vídeo, e assim por diante”, adiciona Silvia.

O chamado Transformer, por sua vez, é um modelo de aprendizado profundo (deep learning) que data de 2017 e trata o problema de tradução de sequências de entrada por meio de mecanismos de atenção. "Este é um modelo promissor e, no caso do Brasil, seu uso em problemas de transformação digital envolvendo a língua portuguesa apresentam um vasto campo de aplicações”, conclui Silvia.

Sobre o palestrante

Felipe Codevilla possui graduação em Engenharia de Computação e mestrado na mesma área, ambos pela FURG. Seu doutorado foi desenvolvido junto ao Centro de Visão Computacional (CVC) em Barcelona, na Espanha. Atualmente, Felipe desenvolve atividades de pesquisa em seu pós-doutorado junto ao Montreal Institute for Learning Algorithms, debruçando-se sobre questões como: direção autônoma, visão computacional e imitation/reinforcement Learning. O palestrante foi um dos primeiros estudantes do C3 a participar do PRH 22, realizando seu mestrado enquanto bolsista do programa.