Departamento de Ciências de Computação

Rodrigo Fernandes de Mello

Rodrigo Fernandes de Mello é professor Associado do Instituto de Ciências Matemáticas e de Computação, Departamento de Ciências de Computação, Universidade de São Paulo, São Carlos, SP. Autor do livro Machine Learning: A Practical Approach to the Statistical Learning Theory, tem se dedicado ao desenvolvimento teórico e suas conexões práticas da área de Aprendizado de Máquina, investigando limites de aprendizado para algoritmos supervisionados e não-supervisionados. Conta com experiência no mercado antes de assumir sua atual posição no meio acadêmico, o que lhe traz a atenção tão necessária à prática, implementação de algoritmos e soluções. Obteve seu título de doutor em novembro de 2003 pela Escola de Engenharia da Universidade de São Paulo, São Carlos, SP, Brasil e é mestre em Ciências da Computação pela Universidade Federal de São Carlos, Brasil. Seus interesses em pesquisa incluem aspectos teóricos e de generalização para o Aprendizado de Máquina Supervisionado e Não-Supervisionado, Análise de Séries Temporais com ferramental Estatístico e de Sistemas Dinâmicos, além da modelagem de sistemas de Aprendizado Online e Data streams.

  • http://lattes.cnpq.br/6840478133476887 (12112022)
  • Rótulo/Grupo:
  • Bolsa CNPq:
  • Período de análise:
  • Endereço: Universidade de São Paulo. Departamento de Ciências da Computação. Instituto de Ciências Matemáticas e de Computação. Av. Trabalhador São Carlense, 400 CEP 13560970 - São Carlos, SP - Brasil
  • Grande área: [sem-grandeArea]
  • Área: [sem-area]
  • Citações: Google Acadêmico

Produção bibliográfica

Produção técnica

Produção artística

Orientações em andamento

Supervisões e orientações concluídas

Projetos de pesquisa

Prêmios e títulos

Participação em eventos

Organização de eventos

Lista de colaborações


Produção bibliográfica

Produção técnica

Produção artística

Orientações em andamento

Supervisões e orientações concluídas

Projetos de pesquisa

  • Total de projetos de pesquisa (25)
    1. 2002-2002. Participação de Conselho e Administração da Empresa
      Administração e Gerenciamento de Projetos
      Membro: Rodrigo Fernandes de Mello.
    2. 2002-2002. Implantação de Servidores Linux para compartilhamento de arquivos com redes Windows
      Implantação de Servidores Linux com compartilhamento de arquivos com redes Windows para a empresa Rei Frango localizada em São Carlos.
      Membro: Rodrigo Fernandes de Mello.
    3. 2002-2002. Projeto FAPESP PIPE 01/03074-8 - Sistema de edição e publicação de notícias na WEB)
      0 objetivo deste projeto é a pesquisa e implementaçâo de um produto inovador para edição e publicação de conteúdo que viabilize a produção de conteúdo na WWW em larga escala, em tempo e custo reduzidos. A produção de conteúdo para a WWW, seja este aplicado a cursos de treinamento, cursos de educação a distância, sites jornalísticos ou de informação em geral, envolve tipicamente uma equipe formada por especialistas de conteúdo, projetistas instrucionais ou publicadores, projetistas gráficos e programadores. 0 custo e o tempo de preparação desse conteúdo normalmente é grande, o que leva empresas, por exemplo de treinamento, que têm um número muito grande de cursos presenciais e querem transportá-los para a WWW, a refrear essa transposição em larga escala. Uma forma de reduzir o tempo de preparação de conteúdo é o reaproveitamento de material já gerado, além do acesso a material gerado por terceiros e armazenado em fontes externas. 0 uso de modelos de esquemas prédefinidos variados, prontos para serem aplicados, com a flexibilidade de criação de novos esquemas sob demanda, além da associação e reutilização de qualquer tipo de mídia a esses esquemas, contribui também para a redução de tempo e de custo na geração de conteúdo em larga escala. Existem hoje no mercado inúmeros produtos de editoração e publicação de conteúdo na WWW, que vão de simples editores até sofisticados sistemas ASPs. Entretanto, esses sistemas apresentam várias limitações, entre elas: funcionam em ambientes proprietários; não suportam acesso a fontes externas de conteúdo; não suportam a distribuição de dados; não suportam o reaproveitamento de módulos e de conteúdo; não promovem integração com outras aplicações; hão suportam escalabilidade; provêem visão apenas parcial do curso no momento de sua editoração e publicação; provêem interface não intuitiva na edição de conteúdo; oferecem recursos fixos e limitados quando da inserção de conteúdo multimídia nas apresentações; utilizam-tecnologias ut
      Membro: Rodrigo Fernandes de Mello.
    4. 2000-2000. C-Register usando J2EE
      Desenvolvimento de um cadastro centralizado de usuários, grupos, relatórios de acesso usando a tecnologia J2EE (JSP, JavaBeans e Enterprise Java Beans).
      Membro: Rodrigo Fernandes de Mello.
    5. 1999-1999. Núcleo de chaveamento de contexto do kernel Virtuoso
      Gerenciamento e Desenvolvimento do núcleo de chaveamento de contexto do kernel de tempo real Virtuoso para suporte à plataforma Intel x86.
      Membro: Rodrigo Fernandes de Mello.
    6. 2004-2004. Auxílio à Pesquisa Individual - Fapesp proc. 2004/02411-9 - Estudos para a Proposta, Implementação e Avaliação de Desempenho de Novas Técnicas, Visando a Construção de um Middleware para a Execução de Aplicações Paralelas e Distribuídas de Alto Desempenho
      Durante as décadas de 1980 e 1990 diversos pesquisadores começaram a adotar conceitos de sistemas distribuídos para desenvolver aplicações de alto desempenho. Esses conceitos direcionaram diversos estudos sobre: balanceamento de carga, imagem única do sistema (single system image), protocolos de baixa latência, bibliotecas de comunicação e arquiteturas de hardware de alto desempenho. Apesar do desenvolvimento contínuo, os resultados desses estudos ainda apresentam limitações para diversos setores que necessitam de aplicações de alto desempenho. Essas limitações são impostas pela necessidade de conhecimento específico sobre a análise, projeto e implementação de tais tipos de aplicações. O conhecimento específico necessário para a construção de aplicações paralelas e distribuídas reside em tópicos tais como, modularização de aplicações em processos, análise da capacidade de processamento e comunicação dos computadores do ambiente distribuído, análise de ocupação e comunicação desses processos, e alocação de recursos do ambiente distribuído. Observando as limitações anteriormente apresentadas, este projeto tem por objetivo estudar, propor, implementar e avaliar o desempenho de novas técnicas de análise de ocupação, distribuição e comunicação de tarefas, que devem resultar em um middleware para a execução de aplicações paralelas e distribuídas de alto desempenho. Esse \textit{middleware}, denominado MidHPC (Middleware for High Performance Computing) tem por objetivo permitir a execução de aplicações multitarefa sobre um ambiente distribuído composto por computadores de capacidade heterogênea. Para utilizar o MidHPC, projetistas de software podem criar aplicações com paradigma concorrente, amplamente difundido. Essas aplicações são submetidas ao MidHPC, que se encarrega de detectar as tarefas contidas em cada processo, analisar a ocupação de recursos impostas por tais tarefas e realizar uma distribuição homogênea de carga.
      Membro: Rodrigo Fernandes de Mello.
    7. 2006-2006. Projeto Fapesp Temático: Mecânica dos Fluidos não Estacionária: Aplicações em Aeronáutica e em Reologia
      Características comuns na simulação numérica de aplicações em aeroelasticidade e escoamentos com fronteiras livres são: a necessidade da representação de domínios com geometria complexa, a manipulação de malhas e a interpolação de propriedades. Estes problemas são tratados no campo da modelagem geométrica. Por outro lado, uma característica também presente em quase todos os campos da mecânica dos fluidos é que, comumente, estudos numéricos são demasiadamente dissociados de trabalhos experimentais e vice-versa. Uma maior integração entre estudos numéricos e experimentais em mecânica dos fluidos é, reconhecidamente, um objetivo importante e, possivelmente, um indicador do nível de amadurecimento de uma comunidade de pesquisa nesta área. Desta forma o objetivo central deste projeto é congregar pesquisadores atuando em cada uma destas áreas, tendo a área de modelagem geométrica como foco principal e integrador para as duas outras áreas do projeto. As pesquisas na área experimental terão o objetivo de validação dos modelos matemáticos e técnicas numéricas em aeroelasticidade.
      Membro: Rodrigo Fernandes de Mello.
    8. 2007-2007. Geração de Malhas e Simulação Numérica de Escoamento de Fluidos

      Membro: Rodrigo Fernandes de Mello.
    9. 2007-2007. Um Framework de Software para a Computação Paralela e Distribuída em Redes P2P

      Membro: Rodrigo Fernandes de Mello.
    10. 2007-2007. Proposta e avaliação de uma técnica para detecção automática de falhas em sistemas computacionais distribuídos
      A limitação das técnicas de alta disponibilidade atuais e o desenvolvimento da área de detecção de novidades motivou este plano de pesquisa que visa o estudo, proposta e avaliação de uma técnica para detecção automática de falhas em sistemas computacionais distribuídos. Durante estudos nas áreas de alta disponibilidade, detecção de falhas e detecção de novidades verificou-se a necessidade de uma técnica on-line para detecção de novidades capaz de atribuição de graus de novidade a eventos ocorridos no sistema. Essas deficiências motivam este projeto que visa propor uma técnica para detecção de novidades com capacidade de adaptação, atribuição de graus de novidade (considerando novidades temporais e de contexto), funcionamento on-line e com baixa complexidade computacional, para que possa ser adotado em ambientes de produção. A técnica proposta deve ser comparada às demais da literatura.
      Membro: Rodrigo Fernandes de Mello.
    11. 2009-2009. Proposta de um Suporte para Otimização de Acesso a Dados Distribuídos

      Membro: Rodrigo Fernandes de Mello.
    12. 2010-2010. Uma abordagem orientada a sistemas para otimização de escalonamento de processos em grades computacionais
      Grades computacionais são ambientes para compartilhamento de recursos heterogêneos e distribuídos, os quais podem ser utilizados de maneira cooperativa para resolver problemas de alta demanda computacional. Esses aspectos motivaram a adoção de grades, no entanto, outros problemas surgiram com a implementação desses ambientes, tais como a proposta de padrões para protocolos de comunicação, aspectos relacionados à segurança, consistência de dados e escalonamento de processos. No contexto de escalonamento de processos, diversas políticas foram propostas, as quais tipicamente consideram a demanda de aplicações por recursos computacionais. Em geral, esses trabalhos visam reduzir o tempo de execução de tarefas. Essas abordagens, denominadas orientadas a aplicações, não avaliam, contudo, a eficiência de utilização e rendimento dos recursos disponíveis. Essa limitação motivou novos estudos no sentido de propor políticas orientadas a recursos, as quais, por sua vez, avaliam a subtilização dos mesmos. Recentemente, alguns trabalhos sugerem a combinação de ambas abordagens, dando origem às políticas orientadas a sistemas. Essas políticas, atualmente, consideram combinações e simplificações desses objetivos conflitantes, não os atendendo simultaneamente. Essa restrição motiva este plano de pesquisa a propor uma abordagem orientada a sistemas e multiobjetivo que avalia, simultaneamente, objetivos de técnicas orientadas a aplicações e a recursos por meio de suas dinâmicas comportamentais. A abordagem proposta considera séries temporais para descrever a dinâmica comportamental de processos e recursos, as quais serão utilizadas para caracterizar tendências e situações futuras, de modo a encontrar ótimos globais estáveis e, consequentemente, contribuir para o aumento de desempenho de execução de aplicações sem, contudo, subtilizar recursos.
      Membro: Rodrigo Fernandes de Mello.
    13. 2011-2011. Agrupamento baseado em Wavelets para fluxos contínuos de dados
      Recentemente, os avanços tecnológicos aumentaram a capacidade de geração e captura de dados nos mais diversos setores da sociedade. Esses dados passaram a constituir fluxos contínuos, os quais precisam ser processados para que seja extraído conhecimento útil. Essa necessidade motivou a criação da área de mineração em fluxos contínuos de dados, que se diferencia por impor restrições à quantidade de memória e tempo disponíveis aos algoritmos, devido ao enorme volume de dados gerados de forma contínua. Em 2006, a Sociedade Brasileira de Computação (SBC) definiu cinco grandes desafios para a pesquisa em computação no Brasil até 2016. O primeiro desafio trata a gestão da informação em grandes volumes de dados, apontando que pesquisas nessa área podem auxiliar cenários de e-learning, e-gov, e-science e, também, no processamento de informações da TV digital, objeto de fortes investimentos do governo brasileiro. Algoritmos de agrupamento têm se mostrado uma abordagem atraente para análise de fluxos contínuos de dados, devido à sua capacidade de geração de modelos sem a necessidade de supervisão humana. Entretanto, os algoritmos existentes para agrupamento em fluxos contínuos consideram somente a similaridade entre padrões por meio de uma função de distância, definida no espaço métrico em que os dados se encontram. Este trabalho assume a hipótese de que analisando as frequências que compõem os padrões observados, por meio da transformada Wavelet, é possível melhor modelá-los. Nesse sentido, este projeto visa propor um novo agrupador para fluxos contínuos de dados, que considera não somente a distância entre padrões, mas também as frequências que os compõem. Espera-se obter, de maneira eficiente, uma melhor qualidade no agrupamento dos dados.
      Membro: Rodrigo Fernandes de Mello.
    14. 2011-2011. Análise de Influências Provenientes da Tomada de Decisões Centralizadas e Distribuídas no Escalonamento de Processos
      Dúvidas sobre a melhor maneira para a tomada de decisões de escalonamento em função das características do ambiente, i.e., se centralizada, parcialmente ou totalmente distribuída, recobrem sobre projetistas de ambientes scale-out. Essas dúvidas estão, principalmente, ligadas a aspectos como: simplicidade de implementação, custos envolvidos na obtenção de informações sobre recursos e processos, propagação de decisões, e impactos sobre a disponibilidade de serviços. Nesse sentido, este projeto de pesquisa visa quantificar essas influências a fim de mapear as abordagens mais adequadas para a tomada de decisões em ambientes scale-out de diferentes escalas e topologias. Resultados provenientes podem, também, ser aplicados a outros aspectos decisórios em computação distribuída, bem como auxiliar na compreensão desses aspectos em outros cenários.
      Membro: Rodrigo Fernandes de Mello.
    15. 2012-2012. Análise da consistência de algoritmos de aprendizado não supervisionado por meio do conceito de estabilidade
      A evolução das tecnologias de armazenamento persistente permitiu e motivou a produção de maiores volumes de dados. No entanto, o aumento de escala torna cada vez mais complexa a análise e processamento desses dados. Para essas tarefas, são úteis técnicas vinculadas ao paradigma de aprendizado não supervisionado, o qual visa caracterizar dados de acordo com métricas de similaridade ou densidade. Nesse contexto, foram propostos algoritmos de agrupamento de dados, os quais permitem encontrar estruturas nos dados capturados, sumarizar informações e reduzir ou eliminar ruídos. O fato de não haver uma base formal bem estabelecida e amplamente aceita para esses algoritmos motivou este trabalho, o qual visa a análise da consistência de algoritmos de aprendizado não supervisionado por meio do conceito de estabilidade, derivado da Teoria do Aprendizado Estatístico. Espera-se que assim seja possível provar teoremas análogos aos já estabelecidos para aprendizado supervisionado e, com isso, obter garantias de desempenho para os algoritmos de agrupamento de dados. Uma fundamentação teórica para a essa área é de grande relevância, pois permitiria compreender melhor as limitações dos algoritmos existentes, propor novas técnicas e nortear novas pesquisas em agrupamento.
      Membro: Rodrigo Fernandes de Mello.
    16. 2012-2012. Adaptação automática de agrupamento para fluxos de dados
      O desenvolvimento de métodos de análise computacional em Aprendizado de Máquina tem facilitado a compreensão de fenômenos complexos. O método mais utilizado na análise exploratória de fenômenos é o Agrupamento de Dados, cujo objetivo é encontrar e distinguir tendências relevantes a partir da avaliação das similaridades de dados. Contudo, o planejamento e a execução de agrupamento de dados é uma atividade complexa que envolve várias etapas de decisões. Atualmente, tais decisões são tomadas por especialistas e pela aplicação de métodos iterativos, nos quais busca-se otimizar o desempenho inferido na etapa de validação. Porém, essa abordagem pode apresentar altos custos e impossibilidades práticas em sua aplicação a fenômenos que exigem a rápida coleta e processamento de grandes volumes de dados, i.e., fluxos de dados. Recentemente, tem-se buscado alternativas para a adaptação automática das decisões inicialmente tomadas por especialistas. Com o objetivo de atender essa necessidade, o proponente deste projeto, no contexto de sua tese, desenvolveu uma abordagem de adaptação de parâmetros para algoritmos de agrupamento. Como resultados, observou-se melhoras no desempenho do algoritmo de agrupamento e a possibilidade de estender essa abordagem a partir da adaptação de funções de distância e estratégias de busca de grupos. Com o objetivo de investigar essas possibilidades e auxiliar a compreensão efetiva de fluxos de dados, propõe-se neste plano de pesquisa a realização de estudos para o desenvolvimento de abordagens que visam a adaptação automática de algoritmos de agrupamento para fluxos de dados.
      Membro: Rodrigo Fernandes de Mello.
    17. 2013-2013. Agrupamento de fluxos contínuos de dados de alta dimensionalidade
      Em 2009, a Sociedade Brasileira de Computação (SBC) se reuniu para estipular os grandes desafios da computação no Brasil com perspectivas para 2020. Um dos desafios apontados foi "como aumentar a nossa capacidade de extrair informações relevantes sobre os fluxos de dados". Uma das subáreas mais atrativas da mineração em fluxos de dados é a de agrupamento, pois não requer a supervisão de um especialista sobre cada exemplo. Tradicionalmente, experimentos científicos dos mais diversos ramos acadêmicos produzem bases de dados com muitos atributos, dificultando sua análise. Contudo, na maioria das vezes, os grupos buscados nessas bases encontram-se em um subespaço, ou variedade, de baixa dimensão, contida no espaço original de alta dimensionalidade. Esse problema, denominado maldição da dimensionalidade, tem limitado o sucesso de muitas técnicas de aprendizado de máquina. Poucos trabalhos na área de agrupamento em fluxos de dados voltaram-se para o cenário de alta dimensionalidade. Todos eles, até o momento, empregam a noção de variância para determinar a relevância das dimensões do fluxo, dado um limiar fixo estipulado a priori pelo usuário. Isso impõe uma forte limitação, dada a natureza volátil de fluxos de dados. Este projeto visa o estudo e a proposta de medidas de quantificação de informação para determinar a relevância de dimensões no cenário de agrupamento em fluxos de dados de alta dimensionalidade. Essa medidas não sofrem dos problemas da variância, já que se baseiam nas probabilidades dos dados e não em sua escala. Além disso, este projeto visa a proposta de mecanismos para a adaptação de parâmetros referentes à determinação da relevância de dimensões, algo essencial dada a natureza volátil de fluxos de dados. Espera-se que com os resultados deste projeto seja possível encontrar grupos em cenários não abordados pelas técnicas atuais.
      Membro: Rodrigo Fernandes de Mello.
    18. 2013-2013. Estabilidade em fluxos de dados: uma abordagem baseada em séries substitutas
      A detecção de mudança de conceito, tema bastante investigado em Mineração de Fluxos Contínuos de Dados, visa identificar alterações nas propriedades dos dados de entrada. Apesar da existência de inúmeros algoritmos para detecção de mudanças de conceito, não se conhece nenhuma formalização que dê sustentação de que alterações em modelos produzidos à partir de fluxos de dados, de fato, correspondam a mudanças de conceitos dos dados. A partir desta constatação, estudos foram iniciados sobre o conceito de estabilidade de modelos na tentativa de resolver tal problema. Porém, novas lacunas foram encontradas nessa etapa, as quais motivaram este plano de pesquisa o qual visa propor um novo conceito de estabilidade para algoritmos de aprendizado de máquina não-supervisionado, aplicado ao cenário de fluxos de dados. Esse conceito será baseado na avaliação de modelos gerados por séries substitutas ({\it Surrogate Data}). Assim, este plano traça um paralelo entre fluxos de dados e séries temporais, em que há dependência entre os dados. Deve-se, também, projetar um algoritmo para detecção de mudanças de conceitos em fluxos de dados que seja estável de acordo com o novo conceito. Dessa maneira, pode-se estabelecer garantias de que mudanças nos modelos gerados pelo algoritmo de aprendizado de fato correspondem a mudanças nos dados de entrada.
      Membro: Rodrigo Fernandes de Mello.
    19. 2014-2014. Emprego de ferramentas de Análise de Séries Temporais para modelar e compreender índices de ocorrência de câncer
      Diversos sistemas ou fenômenos produzem saídas ou resultados que podem ser coletados ao longo do tempo. Alguns desses fenômenos, particularmente os relacionados à medicina, requerem especial atenção da sociedade atual. Dentre esses fenômenos, há interesse em compreender sob quais condições a ocorrência de determinados tipos de câncer torna-se comum e quais suas relações com demais fatores ou variáveis. Neste contexto, este plano de pesquisa de iniciação científica deve utilizar as ferramentas da àrea de Análise de Séries Temporais para modelar e compreender as relações entre índices de ocorrência de diversos tipos de câncer ao redor do mundo e aspectos da população afetada. Serão considerados os dados disponibilizados pela Associação Internacional de Registros de Câncer (International Association of Cancer Registries). Espera-se, com esse estudo, compreender a natureza desses dados, i.e., se eles apresentam comportamento determinístico ou estocástico e quais suas relações com atributos como raça, gênero, idade, etc.
      Membro: Rodrigo Fernandes de Mello.
    20. 2014-2014. Abordagem baseada na estabilidade de algoritmos de agrupamento de dados para garantir a detecção de mudanças de conceito em fluxos de dados
      Resumo em Português Diversos processos industriais, científicos e comerciais produzem dados continuamente, em grande volume e em alta velocidade, denominados fluxos de dados. Na área de Aprendizado de Máquina são realizadas pesquisas para modelar e analisar o comportamento desses fluxos, a fim de compreender o fenômeno que os produziu. Em diversos cenários, esses fluxos de dados alteram seus comportamentos ao longo do tempo, o que são tidos na literatura como mudanças de conceito. É de grande importância detectar essas mudanças, pois elas permitem compreender melhor o fenômeno em estudo. Muitos trabalhos realizam essa tarefa supondo que (i) os dados são rotulados e/ou (ii) desconsiderando as relações temporais na produção dos dados - suposições difíceis de serem afirmadas sobre fluxos de dados. Este plano de pesquisa propõe um método para detectar mudanças de conceito em fluxos de dados não rotulados, considerando a dependência temporal intrínseca às observações que compõem tais conjuntos. Inicialmente os dados do fluxo serão organizados em janelas ou trechos consecutivos ao longo do tempo. Cada janela será decomposta em seus componentes estocástico e determinístico por meio dos métodos Empirical Mode Decomposition e Recurrence Quantification Analysis, sendo então modelados com o propósito de remover dependências temporais entre os dados. Em seguida, por meio de um algoritmo de agrupamento de dados estável, cada janela será agrupada, produzindo dendrogramas. Por fim, esses dendrogramas serão comparados por meio da distância de Gromov-Hausdorff com o intuito de identificar as divergências entre essas janelas consecutivas de dados, evidenciando mudanças de conceito.
      Membro: Rodrigo Fernandes de Mello.
    21. 2015-2015. Abordagem estável para garantir a detecção de mudanças de conceito em fluxos de dados
      Diversos processos industriais, científicos e comerciais produzem dados continuamente, em grande volume e em alta velocidade, denominados fluxos de dados. Na área de Aprendizado de Máquina são realizadas pesquisas para modelar e analisar o comportamento desses fluxos, a fim de compreender o fenômeno que os produziu. Em diversos cenários, esses fluxos de dados alteram seus comportamentos ao longo do tempo, o que são tidos na literatura como mudanças de conceito. É de grande importância detectar essas mudanças, pois elas permitem compreender melhor o fenômeno em estudo. Muitos trabalhos realizam essa tarefa supondo que (i) os dados são rotulados e/ou (ii) desconsiderando as relações temporais na produção dos dados - suposições difíceis de serem afirmadas sobre fluxos de dados. Este plano de pesquisa propõe um método para detectar mudanças de conceito em fluxos de dados não rotulados, considerando a dependência temporal intrínseca às observações que compõem tais conjuntos. Inicialmente os dados do fluxo serão organizados em janelas ou trechos consecutivos ao longo do tempo. Cada janela será decomposta em seus componentes estocástico e determinístico por meio dos métodos Empirical Mode Decomposition e Recurrence Quantification Analysis, sendo então modelados com o propósito de remover dependências temporais entre os dados. Em seguida, por meio de um algoritmo de agrupamento de dados estável, cada janela será agrupada, produzindo dendrogramas. Por fim, esses dendrogramas serão comparados por meio da distância de Gromov-Hausdorff com o intuito de identificar as divergências entre essas janelas consecutivas de dados, evidenciando mudanças de conceito.
      Membro: Rodrigo Fernandes de Mello.
    22. 2016-2016. Otimização de reconstrução do espaço-fase de séries temporais
      O aumento na quantidade de dados oriundos das mais diversas fontes tem tornado cada vez mais complexa sua análise e processamento, dificultando a busca por padrões, tendências e ciclos. Dentre os tipos de dados analisados, tem-se especial atenção para com aqueles coletados ao longo do tempo, comumente organizados na forma de séries temporais. Esses dados são provenientes de diferentes fenômenos, sejam eles naturais ou produzidos pela intervenção humana, como temperaturas em uma região do planeta, crescimento populacional ou dados Web. Neste contexto, ferramentas propõem a decomposição de tais séries em componentes estocásticos e determinísticos, a fim de obter modelos mais representativos para ambas partes e permitir análises de maior qualidade. Para dados predominantemente determinísticos, o ramo de Sistemas Dinâmicos propõe a reconstrução do espaço-fase da série temporal, com o objetivo de aplicar uma regressão e obter a regra ou função geradora dos dados. No entanto, métodos atuais para a obtenção do espaço-fase não são confiáveis e robustos para dados ruidosos e/ou caóticos, necessitando de supervisão humana. Esta lacuna motivou o desenvolvimento deste plano de pesquisa de doutorado, que visa projetar um método capaz de estimar, com maior qualidade e robustez, os parâmetros necessários para a reconstrução de um espaço-fase adequado aos dados coletados. Espera-se que tal método seja aplicado tanto sobre dados em lote quanto sobre aqueles continuamente obtidos ao longo do tempo.
      Membro: Rodrigo Fernandes de Mello.
    23. 2018-2018. Em busca de garantias para a detecção de mudanças de conceito em fluxos de dados
      Com o objetivo de modelar variações em fluxos de dados, diversos pesquisadores têm proposto novas abordagens voltadas para a detecção de mudanças de conceito (do inglês, concept drift). Um conceito é caracterizado por uma sequência de observações produzidas por um mesmo processo gerador. Pesquisadores estão interessados em detectar mudanças de conceito a fim de apoiar especialistas na tomada de decisões sobre os fenômenos que produziram tais fluxos. Atualmente, há duas principais linhas de pesquisa voltadas para a detecção de mudanças de conceito: a primeira é baseada em aprendizado supervisionado, enquanto a segunda em estratégias não supervisionadas. Ambas sofrem por não oferecer garantias para a detecção de mudanças de conceito uma vez que a primeira relaxa a premissa de independência dos dados, necessária devido ao Princípio de Minimização do Risco Empírico definido no contexto da Teoria do Aprendizado Estatístico, e a segunda falha por não contar com um arcabouço teórico de sustentação, logo detecções são muitas vezes provenientes da forma com que o algoritmo é parametrizado e não das alterações efetivas nos dados. A fim de abordar essas limitações, este projeto de pesquisa visa a formulação de um arcabouço teórico para garantir que detecções de mudanças de conceito em fluxos de dados sejam decorrentes de alterações provenientes das observações coletadas ao longo do tempo e não do simples acaso ou da parametrização de algoritmos. Além disso, deve-se projetar e desenvolver um algoritmo para a detecção de mudanças de conceito. Experimentos serão conduzidos utilizando transições entre fluxos de dados produzidos por diferentes processos geradores sintéticos, bem como por fluxos produzidos por fenômenos reais.
      Membro: Rodrigo Fernandes de Mello.
    24. 2009-2009. Otimização de Acesso a Dados em Grids Computacionais Utilizando Conhecimentos sobre Aplicações Paralelas
      A maioria dos atuais sistemas de gerência de Grids computacionais são voltados para simplificar o desenvolvimento ou escalonamento de aplicações. Contudo, nenhum desses ambientes extrai e utiliza informações de aplicações para otimizar operações tais como: escalonamento e migração de processos, acesso a dados distribuídos, comunicação em rede e latência de acesso à memória (visando minimizar atrasos). Grande parte desses sistemas de gerência de Grids ainda requerem que usuários reescrevam suas aplicações para submissão. Tais limitações motivaram o projeto MidHPC (Middleware for High Performance Computing) que provê um middleware para a execução de aplicações paralelas e distribuídas desenvolvidas segundo o paradigma concorrente. O projeto MidHPC evoluiu em muitas frentes, as quais motivam novas pesquisas, principalmente no que se refere ao acesso a dados. Esse mesmo tema tem limitado pesquisas na área de Grids computacionais a focarem exclusivamente em aplicações do tipo Bag-of-Tasks. Motivados pela necessidade de acesso otimizado a dados, este plano de pesquisa propõe o estudo, proposta e avaliação de desempenho de técnicas bioinspiradas com o objetivo de reduzir o tempo de acesso a dados em Grids computacionais. A estrutura de Grid será modelada utilizando redes complexas, que permitem descrever todas as entidades envolvidas (roteadores, canais de comunicação e computadores) e suas respectivas interações. Sobre tal modelo serão propostas abordagens baseadas em inteligência de enxames (Swarm Intelligence) e algoritmos genéticos para otimizar o tempo de acesso, explorando a distribuição, localidade, replicação e acesso paralelo dos dados, comportamento de acesso das aplicações e características do ambiente. Deve-se comparar o desempenho das técnicas propostas à outras adotadas na literatura. Resultados da pesquisa devem conduzir o desenvolvimento de uma plataforma de distribuição e acesso a dados para o projeto MidHPC. Essa plataforma motivaria pesquisas em diferentes áreas tais como mineração de dados, bancos de dados distribuídos, sistemas de arquivos distribuídos e computação gráfica.
      Membro: Rodrigo Fernandes de Mello.
    25. 2010-2010. Detecção, rastreamento e análise automática de leucócitos rolantes e aderidos em imagens de vídeo de microscopia intravital
      Este projeto visa detectar leucócitos e acompanhar sua dinâmica comportamental como forma de estudar suas relações com a injeção de drogas em animais.
      Membro: Rodrigo Fernandes de Mello.

Prêmios e títulos

  • Total de prêmios e títulos (1)
    1. Bourse de Chercheur à Télécom ParisTech de Février a Avril 2019, https://digicosme.lri.fr/tiki-read_article.php?articleId=305. DigiCosme, Paris-Saclay. 2019.
      Membro: Rodrigo Fernandes de Mello.

Participação em eventos

  • Total de participação em eventos (12)
    1. . WSCAD - Concurso de Teses e Dissertações
    2. Data clustering using topological features. 2014 Brazilian Conference on Intelligent Systems
    3. RouteGA: A Grid Load Balancing Algorithm with Genetic Support. The IEEE 21st International Conference on Advanced Information Networking and Applications
    4. Analyzing the public opinion on the Brazilian political and corruption issues. The 6th Brazilian Conference on Intelligent Systems (BRACIS)
    5. Detecting Dynamical Changes in Data Streams. 6th International Conference on Nonlinear Science and Complexity
    6. . Bin SP 2016
    7. 7th International Meeting on high performance computing for computational science. Model for Simulation of Heterogeneous High-Performance Computing Environments
    8. XXVI Congresso de Trabalhos de Iniciação Científica. Escalonamento de Processos Utilizando Técnicas de ACO
    9. Objetos Distribuídos 2000. Objetos Distribuídos
    10. II Congresso Nacional de Iniciação Científica. Congresso Nacional de Iniciação Científica
    11. Coordenador de seção técnica no II Congresso Nacional de Iniciação Científica. Congresso Nacional de Iniciação Científica
    12. Palestrante do Congresso Fenasoft Brasil Software Week no tema Análise de Desempenho de Clusters Linux. Congresso Fenasoft Brasil Software Week

Organização de eventos

  • Total de organização de eventos (9)
    1. . X Simpósio de Teses e Dissertações. Pós-graduação em CIências da Computação e Matemática Computacional - ICMC - USP. 2006. Organizacao
    2. . 12th Brazilian Symposium on Multimedia and the Web Conference. Sociedade Brasileira de Computação. 2006. Organizacao
    3. . The 11th IEEE International Conference on Computational Science and Engineering (CSE-2008). IEEE Technical Committee on Scalable Computing. 2008. Organizacao
    4. . International Symposium on Pervasive Grid. IEEE Technical Committee on Scalable Computing. 2008. Organizacao
    5. . WSCAD CTD - Concurso de Teses e Dissertações em Arquitetura de Computadores e Computação de Alto Desempenho. Sociedade Brasileira de Computacão. 2010. Organizacao
    6. . II Escola Regional de Alto Desempenho de São Paulo - Fórum de Pós-Graduação. Sociedade Brasileira de Computação. 2011. Organizacao
    7. . IV Escola Regional de Alto Desempenho de São Paulo. Sociedade Brasileira de Computação - Porto Alegre. 2013. Organizacao
    8. . The 10th Brazilian Symposium on Multimedia and Web & LA-Web 2004 - 2nd Latin American Web Congress. . 2004. Organizacao
    9. . XXIV Programa de Verão do Instituto de Ciências Matemáticas e de Computação. Universidade de São Paulo. 2007. Organizacao

Lista de colaborações



(*) Relatório criado com produções desde 1970 até 2023
Data de processamento: 10/05/2023 08:54:02