Departamento de Ciências de Computação

Total de projetos de pesquisa


Número total de itens: 397

2023

1.   2023-2023. Aprendizado de Máquina para Séries Temporais em Aplicações de mHealth

Membro: Diego Furtado Silva.
2.   2023-2023. Detecção de Novidade em Fluxos Contínuos de Dados Multirrótulo

Membro: Diego Furtado Silva.

2022

1.   2022-2022. Análise da linguagem em redes sociais para detecção precoce de transtornos de saúde mental
O projeto objetiva a investigação de modelos computacionais para detecção de sinais precoces de transtornos de depressão e ansiedade a partir de publicações em redes sociais. A investigação contempla a construção de uma base textual de grandes proporções rotulada com informações relacionadas à saúde mental de usuários Twitter em português, e o uso de métodos de aprendizado supervisionado (como redes neurais artificiais profundas, transformadores etc.) para detectar usuários com maior probabilidade de vir a desenvolver futuros transtornos deste tipo com antecipação suficiente para sinalizar estas situações antes de seu possível agravamento. Questões de pesquisa a serem investigadas incluem a detecção de transtornos de saúde mental a partir de dados textuais e a partir de características estruturais e comportamentais da rede social, e a interpretação e explicação destes modelos.
Membro: Thiago Alexandre Salgueiro Pardo.
2.   2022-2022. Projeto Coral USP Sao Carlos
Projeto de cultura e extensão financiado pelo Banco Santander cujo objetivo é aprimorar as atividades do Coral USP Sao Carlos. O projeto inclui a compra de equipamento e a contratação de serviços.
Membro: José Fernando Rodrigues Júnior.
3.   2022-2022. Projeto Temático: Criminality, Insecurity, and Legitimacy: a transdisciplinary approach
Since the 1970s, Brazilian society has been undergoing a process of transition from military dictatorship to democracy. With this political transition, it was expected that conflicts would be progressively resolved, reducing violence. However, that didn't happen. Indeed, the transition was accompanied by an explosion of internal conflicts, much of which associated with urban crime. There is still no consensus among social scientists on the reasons that explain these trends in the evolution of crime and violence in Brazilian society, particularly in large cities. Among the explanations that emerge most frequently is the exhaustion of traditional models of security policies, which have become obsolete. Based on Data Science and Artificial Intelligence techniques, this project aims to develop innovative analytical methodologies to investigate complex phenomena associated with crime and the persistence of feelings of insecurity in the population. The study of the relationship between criminality, the feeling of insecurity, and the legitimacy of justice institutions is also the main focus of the project. Another important objective is to train human resources so that they are able to use Data Science and Artificial Intelligence techniques in the field of Human and Social Sciences (CHS), bringing new perspectives of approach and differentiated training for professionals and researchers.
Membro: Alneu de Andrade Lopes.
4.   2022-2022. Práticas em smartphones e tablets : Um curso do Programa Universidade Aberta à Terceira Idade do ICMC-US
Desde 2015, docentes do ICMC oferecem cursos de extensão semestrais em ?Práticas em Smartphones e Tablets?, no âmbito do Programa Universidade Aberta à Terceira Idade (UATI) da USP, em dois níveis: Módulo Iniciante (PST-Iniciante) e Módulo Avançado (PST-Avançado). Esses cursos têm por objetivo familiarizar usuários idosos no uso de dispositivos móveis e em aplicativos que os auxiliem no dia a dia. A oferta do curso teve início com voluntários que se revezavam para preparar, ministrar e acompanhar as aulas, que desde então ocorrem semanalmente, com 15 encontros planejados, nos dois semestres. Em 2018/2, 2019/1 e 2019/2 foram oferecidas duas turmas de cada módulo com a colaboração de pós-doutorandos da Psicologia e Gerontologia, que compunham - junto com a responsável por esta proposta - o time multidisciplinar de coordenação dos cursos. Em 2020/1 as turmas do curso foram reduzidas e apenas uma turma de iniciantes e uma de avançados foram oferecidas. A redução ocorreu devido à ausência de novos ministrantes/monitores voluntários e de pós-doutorandos interessados. No entanto, com o apoio de dois bolsistas PUB (Programa Unificado de Bolsas da USP) foi possível dar continuidade e finalizar as aulas das duas turmas supracitadas. Ainda em 2020/1 o curso iniciou de maneira presencial, mas precisou ser suspenso e, posteriormente, foi modificado para o formato online em razão do distanciamento social provocado pela pandemia da COVID-19. A primeira tentativa de oferta do curso no formato online não obteve sucesso e a coordenação precisou repensar a metodologia do curso para essa nova modalidade. Diversos foram os desafios e dificuldades, entre eles: a) dificuldade dos idosos na visualização das aulas no dispositivo com tela pequena, b) dificuldades de entender as instruções fornecidas por professores e monitores/tutores e, consequentemente, dificuldades de replicar as instruções no seu dispositivo, c) falta de espaço nos celulares para baixar os aplicativos ensinados, d) baixo engajamento dos alunos, entre outros. As atividades foram reiniciadas em 2020/2, e o formato de aulas online foi adaptado para atender às demandas e dificuldades do público. As aulas foram ministradas nas terças feiras, das 14h00 às 16h00, por meio da ferramenta Google Meet. Cada idoso foi tutorado por um monitor responsável por ajudá-los a instalar os aplicativos antes das aulas e acompanhá-los durante a aula e após a mesma. A turma tinha em torno de 25 alunos e a equipe contou com a responsável por esta proposta, além de três alunos de mestrado da mesma, três alunos bolsistas PUB e dois alunos voluntários. A turma iniciou com 30 alunos idosos, uma lista de espera de 10 outros alunos e as inscrições se encerraram em 2 horas, o que ilustra o interesse do público alvo e o aumento da demanda. Sem os monitores não seria possível oferecer tal curso na modalidade online, uma vez que a demanda por atendimento individual e personalizado é maior neste formato. Cada um dos monitores tutora ~4 idosos e a equipe revezou na preparação do material, dos vídeos de apoio, na elaboração das atividades de reforço e na exposição das aulas. Um grupo de WhatsApp com professores, monitores e alunos permitiu o acompanhamento e o apoio durante a semana.
Membro: Kamila Rios da Hora Rodrigues.
5.   2022-2022. The Role of Chemistry in Holobiont Adaptation
Um holobionte é constituído por um hospedeiro e toda a sua comunidade ecológica de microorganismos associados. É uma unidade evolutiva e a seleção de holobiontes é uma importante força evolucionária. Uma característica que ainda é pouco abordada é o papel dos metabólitos secundários nas relações microorganismos-hospedeiro, bem como nas interações quimicamente mediadas entre holobiontes (o conjunto micróbio-hospedeiro) e o ambiente. Nesta proposta, pretendemos investigar: aspectos selecionados da Química de esponjas marinhas holobiontes e como a Química influencia no sucesso evolutivo de esponjas marinhas; como microorganismos participam na transferência química de presas para predadores no ambiente marinho; a Química de grupos selecionados de invertebrados marinhos e de microorganismos associados a invertebrados e plantas, visando a obtenção de novas substâncias químicas bioativas; para explorar ainda mais a Química e a Biologia de "lead compounds" já obtidos, a fim de elaborar estruturas bioativas mais ativas e estruturalmente menos complexas, com o objetivo de explorar ainda mais a Farmacologia desses compostos; investigar a biossíntese de dois grupos selecionados de metabólitos microbianos, a fim de revelar aglomerados de genes e enzimas envolvidas em etapas biossintéticas e prever modificações estruturais de Bioengenharia para melhorar sua atividade biológica; desenvolver uma abordagem inédita para a seleção automatizada de microorganismos. O objetivo final é responder a perguntas desafiadoras, a fim de avançar o conhecimento da adaptação holobiontes, e explorar produtos químicos úteis que influenciam a adaptação dos holobiontes e que resultam no sucesso dos holobiontes na natureza.
Membro: Solange Oliveira Rezende.

2021

1.   2021-2021. (Proc. FAPESP 2021/08322-3) Analítica Visual de dados ambientais obtidos por Monitoramento Acústico Passivo
O Monitoramento Acústico Passivo (MAP) tem se mostrado uma abordagem promissora para acompanhar a biodiversidade a partir do registro da abundância e distribuição animal, oferecendo uma abordagem não invasiva, padronizada e eficiente de coletar dados ecológicos em grandes escalas espaciais e temporais. O MPA viabiliza um acesso sem precedentes a informações sobre o meio ambiente e mudanças nos ecossistemas, e pode apoiar programas de monitoramento e conservação fortemente embasados em dados. A tecnologia mostra-se particularmente adequada para o estudo de ambientes tropicais, caracterizados por extrema biodiversidade e visibilidade limitada pela vegetação densa. Não obstante, sua expansão é desafiada por um cenário clássico de big data: o MAP permite coletar, com pouco esforço, milhares de extensos arquivos de áudio, cuja análise por inspeção manual rapidamente torna-se inviável. O objetivo deste projeto é desenvolver soluções computacionais robustas para atender algumas demandas colocadas por estudiosos em ecologia e biodiversidade relacionadas à análise de registros acústicos coletados por meio de MAP. O processamento de áudio por técnicas de aprendizado de máquina é inerentemente complexo, o volume de dados é expressivo e o processamento de paisagens acústicas associadas a ambientes naturais é um tema de pesquisa ainda relativamente recente e bastante desafiador. Como os gravadores registram o som ambiental oriundo de múltiplas fontes, independentemente de sua natureza, é comum que eventos acústicos de interesse sejam mascarados, capturados de forma tênue, ou ocorram de forma sobreposta a outros eventos que podem ser ou não de interesse. Como a localização espacial dos insetos e animais varia, enquanto os gravadores permanecem em uma posição fixa, os registros acústicos coletados são naturalmente ruidosos, e ocorrências de eventos similares apresentam grande variabilidade. Esse cenário dificulta sobremaneira a execução de tarefas essenciais de identificação e etiquetação das ocorrências de interesse. Estratégias de aprendizado de máquina bem sucedidas em registros acústicos obtidos em condições mais controladas mostram-se pouco efetivas nesse cenário, o que motiva esta investigação. Vamos considerar, inicialmente, algumas tarefas críticas bastante relacionadas entre si, a saber, a automatização do processo de etiquetação de registros acústicos, e a extração de modelos de aprendizado de máquina para a identificação, recuperação e classificação de eventos de interesse em paisagens acústicas.
Membro: Maria Cristina Ferreira de Oliveira.
2.   2021-2021. ?Práticas em smartphones e tablets?: Um curso de letramento digital para idosos
Desde 2015, docentes do ICMC oferecem cursos de extensão semestrais em ?Práticas em Smartphones e Tablets?, no âmbito do Programa Universidade Aberta à Terceira Idade (UATI) da USP, em dois níveis: Módulo Iniciante (PST-Iniciante) e Módulo Avançado (PST-Avançado). Esses cursos têm por objetivo familiarizar usuários idosos no uso de dispositivos móveis e em aplicativos que os auxiliem no dia a dia. A oferta do curso teve início com voluntários que se revezavam para preparar, ministrar e acompanhar as aulas, que desde então ocorrem semanalmente, com 15 encontros planejados, nos dois semestres. Em 2018/2, 2019/1 e 2019/2 foram oferecidas duas turmas de cada módulo com a colaboração de pós-doutorandos da Psicologia e Gerontologia, que compunham - junto com a responsável por esta proposta - o time multidisciplinar de coordenação dos cursos. Em 2020/1 as turmas do curso foram reduzidas e apenas uma turma de iniciantes e uma de avançados foram oferecidas. A redução ocorreu devido à ausência de novos ministrantes/monitores voluntários e de pós-doutorandos interessados. No entanto, com o apoio de dois bolsistas PUB (Programa Unificado de Bolsas da USP) foi possível dar continuidade e finalizar as aulas das duas turmas supracitadas. Ainda em 2020/1 o curso iniciou de maneira presencial, mas precisou ser suspenso e, posteriormente, foi modificado para o formato online em razão do distanciamento social provocado pela pandemia da COVID-19. A primeira tentativa de oferta do curso no formato online não obteve sucesso e a coordenação precisou repensar a metodologia do curso para essa nova modalidade. Diversos foram os desafios e dificuldades, entre eles: a) dificuldade dos idosos na visualização das aulas no dispositivo com tela pequena, b) dificuldades de entender as instruções fornecidas por professores e monitores/tutores e, consequentemente, dificuldades de replicar as instruções no seu dispositivo, c) falta de espaço nos celulares para baixar os aplicativos ensinados, d) baixo engajamento dos alunos, entre outros. As atividades foram reiniciadas em 2020/2, e o formato de aulas online foi adaptado para atender às demandas e dificuldades do público. As aulas foram ministradas nas terças feiras, das 14h00 às 16h00, por meio da ferramenta Google Meet. Cada idoso foi tutorado por um monitor responsável por ajudá-los a instalar os aplicativos antes das aulas e acompanhá-los durante a aula e após a mesma. A turma tinha em torno de 25 alunos e a equipe contou com a responsável por esta proposta, além de três alunos de mestrado da mesma, três alunos bolsistas PUB e dois alunos voluntários. A turma iniciou com 30 alunos idosos, uma lista de espera de 10 outros alunos e as inscrições se encerraram em 2 horas, o que ilustra o interesse do público alvo e o aumento da demanda. Sem os monitores não seria possível oferecer tal curso na modalidade online, uma vez que a demanda por atendimento individual e personalizado é maior neste formato. Cada um dos monitores tutora ~4 idosos e a equipe revezou na preparação do material, dos vídeos de apoio, na elaboração das atividades de reforço e na exposição das aulas. Um grupo de WhatsApp com professores, monitores e alunos permitiu o acompanhamento e o apoio durante a semana.
Membro: Kamila Rios da Hora Rodrigues.
3.   2021-2021. [PRCEU-USP] Ações no Ensino Fundamental e Médio: Inclusão Feminina e Equidade de Gênero no Ensino Superior de Ciências Exatas
Com base na análise do número de ingressantes do sexo feminino nos cursos de Ciências Exatas e da Terra nas três maiores Universidades públicas Paulistas (UNICAMP, UNESP e USP), é possível observar a grande disparidade entre o número de homens e mulheres, reforçando o estigma de ser uma área majoritariamente masculina, e corroborando com os diversos resultados de pesquisas publicados recentemente. Buscando reverter esse quadro, que tem se repetido desde 2000 no ICMC-USP, e de mais longa data na sociedade de modo geral, este projeto tem como objetivo explorar um conjunto de ações para a divulgação científica e tecnológica que tem como público alvo meninas e mulheres na cidade de São Carlos-SP e região, corroborando com ações da Sociedade Brasileira de Computação (SBC) que visam tanto a inserção de computação no ensino fundamental e médio, quanto a inclusão de mulheres na computação. Para aumentar o impacto dessas ações, este projeto propõe o desenvolvimento de um ambiente de ensino virtual, apoiado por um currículo e materiais de código fonte aberto, que poderão ser trabalhados nas escolas de ensino fundamental e médio de São Carlos e região para apresentar a área de exatas de uma maneira lúdica e acessível para a população leiga, removendo assim o estigma de que esses são cursos exclusivamente masculinos. Além disso, o projeto também visa estabelecer parcerias público-privadas com objetivo de ampliar a inclusão feminina no mercado de trabalho como, por exemplo, por meio da realização de cursos e minicursos para treinamento de mulheres voltados para o setor de tecnologia da informação. Nesse contexto, a escolha pela cidade de São Carlos-SP, considerada a capital da tecnologia, e sua região, tem um papel estratégico uma vez que sedia unidades da USP e UFSCar, duas das principais universidades públicas do país, e uma Universidade privada. Dessa maneira, o projeto tem potencial para atrair centenas de estudantes de todo o estado.
Membro: Cristina Dutra de Aguiar.
4.   2021-2021. Algoritmo DTW para correlação de feições geológicas

Membro: Diego Furtado Silva.
5.   2021-2021. Aprendizado de máquina para otimizar sistema de gestão de relacionamento com os clientes nas mídias sociais
O crescente uso de redes sociais impactou significativamente na forma com a qual as empresas se relacionam com os seus clientes. Tais mídias tornaram-se um novo meio de comunicação entre estes atores, mas também representam um repositório valioso sobre a reputação de marcas, produtos e serviços. Este fenômeno fez surgir o conceito de gestão de relacionamento com os clientes por intermédio de redes sociais, conhecido pelo acrônimo Social CRM. O Social CRM inclui estratégias, processos e tecnologias para integrar as redes sociais aos sistemas tradicionais de gestão de relacionamento com os clientes. O Social CRM vem cada vez mais sendo utilizado para o entendimento das empresas em relação à percepção dos consumidores quanto aos seus produtos, serviços e propagandas. Entretanto, a área de Social CRM envolve diversos desafios, principalmente pelo fato das opiniões expressas pelos consumidores em portais e redes sociais estarem em formato textual, o qual é um tipo de dado não estruturado. Nesses textos, além de etapas de limpeza, padronização e estruturação necessária para algoritmos de aprendizado de máquina, os quais serão utilizados neste projeto para automação de tarefas e extração de conhecimento, é necessário identificar algumas partes importantes no texto, como os aspectos de um produto ou serviço. Além disso, há a necessidade de em determinadas aplicações ter que informar a categoria dos textos, por exemplo, sentimento positivo ou sentimento negativo, ou se um texto é sobre vendas, divulgação, ou feedback de um consumidor. Por fim, os textos dessas mídias geralmente são curtos, o que impõe desafios adicionais ao aprendizado de máquinas em dados textuais. Com isso, esse projeto visa investigar, propor e implementar técnicas de aprendizado de máquina para a extração de conhecimento e automação de tarefas na gestão de relacionamento com clientes, além da disponibilização de um serviço contendo os principais métodos resultantes da pesquisa. A saber, serão investigados e desenvolvidos (i) métodos de extração de aspectos a partir de textos de consumidores extraídos em plataformas de reclamação, com o objetivo de obter qual o produto ou serviço se trata uma determinada reclamação; (ii) métodos de classificação semi supervisionada de categorias de marketing para textos de consumidores provenientes de redes sociais, com o objetivo de diminuir a quantidade de exemplos rotulados necessária para obter a automação de maneira satisfatória; (iii) métodos de predição para o score de engajamento de consumidores em relação a postagens em mídias sociais, para definir prioridades de atendimento e de marketing (pré-venda e pós-venda); por fim, os métodos supramencionados serão integrados em um (iv) sistema de informação inteligente voltado para Social CRM. Além dos potenciais de inovação técnico-científico nas áreas de análise de redes sociais, inteligência artificial e business, setores estratégicos para o desenvolvimento econômico nacional, o presente projeto também viabiliza a construção de uma rede de pesquisa multidisciplinar e o desenvolvimento de produtos que atendam as necessidades mercadológicas de empresas que usam as redes sociais para a gestão de relacionamento com os clientes
Membro: Solange Oliveira Rezende.
6.   2021-2021. Interface Musical Cérebro-Computador (BCMI) no apoio ao tratamento de distúrbios mentais
A música pode mudar nossas emoções, influenciar nosso humor e, finalmente, afetar nossa saúde. A musicoterapia é um dos métodos mais antigos usados no tratamento de transtornos neurológicos. Portanto, a combinação entre o processo de musicoterapia com algoritmos de reconhecimento de emoções humanas baseados em eletroencefalograma (EEG) podem ser uma abordagem útil. Assim, seria possível identificar o estado emocional do usuário e compor uma música com base nesse biofeedback. Dessa forma, a musicoterapia poderia ser ajustada de acordo com as necessidades do paciente, tendo em vista que as músicas compostas pelo algoritmo poderão induzir novas emoções com estímulos sonoros àquele indivíduo. Neste projeto, propõe-se um algoritmo geral de musicoterapia para pessoas com transtornos mentais a fim de utilizar EEG para composição musical permitindo adaptar a terapia ao tempo predefinido do tratamento e ajustar a sessão de musicoterapia ao estado emocional do usuário. Tem-se, como finalidade, a de que essa tecnologia possa realmente aprimorar a vida das pessoas com transtornos mentais e atender às suas necessidades terapêuticas. Para isso, pretende-se utilizar os Potenciais Relacionados a Eventos (ERPs) e o Potencial Evocado Visual de Estado Estacionário (SSVEP), que são padrões bem conhecidos no eletroencefalograma (EEG). Esses tipos de sinais cerebrais são usados para diferentes aplicações em Interface Musical Cérebro-Computador (BCMI). Para a prototipação do projeto, será utilizada a linguagem Python, por possuir um grande arsenal para processamento de sinais e reconhecimento de padrões. Posteriormente, para as questões de desempenho, será utilizada a linguagem C++. A princípio, a avaliação do projeto se dará por meio de testes com a base de dados que será obtida durante este projeto. Essa base será o padrão ouro, uma vez que os dados serão coletados e testados. Na segunda fase do projeto, será avaliada a experiência do usuário por intermédio de formulários que são comumente usados para avaliar estudos de BCMI.
Membro: João Luís Garcia Rosa.
7.   2021-2021. MBA em Inteligência Artificial e Big Data
Vice-coordenadora do MBA
Membro: Solange Oliveira Rezende.
8.   2021-2021. PROGRAMA LABORATÓRIOS DIDÁTICOS PARA O ENSINO DE GRADUAÇÃO
Há no contexto atual, diversos laboratórios relevantes para o ensino de computação no ICMC-USP. Em geral, esses laboratórios são utilizados pelos alunos como estações de trabalho para desenvolver códigos, fazer trabalhos de graduação das mais variadas disciplinas, mas não podem ser utilizados e preparados dinamicamente, para atender disciplinas relacionadas à infraestrutura computacional (DevOps). Por exemplo, diversas disciplinas exigem atividades que requerem que o aluno tenha acesso a privilégio de administração do computador. Tais atividades não podem ser realizadas em ambientes convencionais e necessitam de uma infraestrutura SaaS/IaaS. Disciplinas como Computação Distribuída, Programação Paralela, Computação em Nuvem, Internet das Coisas e novas disciplinas como Stream de Dados, Micros Serviços e Containers, carecem de equipamentos e ambientes dinâmicos e mais adequados, para que alunos dos cursos de ciências de computação, sistemas de informação, engenharia de computação, matemática e estatística,possam lidar com o ambiente computacional. Embora haja uma vasta disponibilidade de nuvens computacionais fora do ambiente acadêmico em que os alunos possam aprender a desenvolver soluções computacionais atuais, elas são custosas para os discentes e também para a universidade. Esses ambientes requerem contratos com pagamentos pelos usuários e que são inviáveis de serem financiados a médio e longo prazo. Ademais, os cursos de computação por falta de equipamentos que possam ser ajustados para alunos e docentes lidarem de forma completa com o ambiente computacional, inviabiliza a formação de profissionais que têm sido demandados para lidar com problemas que envolve vasto processamento paralelo, distribuído e, com enorme volume de dados. Novas abordagens e metodologias nesse campo somente podem ser implementadas se houver infraestrutura adequada que permita uma sinergia entre alunos e professores. Neste contexto, o objetivo desta proposta é construir um projeto piloto de uma infraestrutura como serviço para o ensino de computação, matemática e estatística em disciplinas do ICMC-USP que carecem de ambientes para lidar não somente com aplicações, mas como essas aplicações possam ser dispostas em plataformas computacionais e consequentemente ajustadas na infraestrutura. A proposta pode ampliar a formação dos alunos, pois estes terão condições de estarem preparados para resolverem problemas complexos do mundo real que requerem conhecimento em produzir aplicações com alta escalabilidade, alta conectividade e que tenham capacidade de criar arquiteturas computacionais associadas a infraestrutura para armazenamento, processamento e otimização de grandes volumes de dados gerados no nosso cotidiano. Ainda, que nossos alunos de matemática e estatística estejam preparados para entender os ambientes densos de infraestrutura computacional, quando utilizados em processos de mineração de dados, bigdata e inteligência artificial.
Membro: João do Espirito Santo Batista Neto.
9.   2021-2021. Projeto temático: IARA - Inteligência Artificial Recriando Ambientes
O Centro de Pesquisa Aplicada em Inteligência Artificial, IARA, é formado por uma equipe multidisciplinar, com especialistas nacionais com competência internacionalmente reconhecidas em inteligência artificial, telecomunicações internet das coisas e cidades inteligentes. O centro sediado em São Carlos, estado de São Paulo, funcionará em rede com pesquisadores de todas as regiões do Brasil, organizado em nós ou subsedes. Assim, um diferencial desta proposta de centro é que, junto com o centro sediado em São Carlos, será formada uma rede de nós, ou sub-sedes, localizados em Instituições Científica, Tecnológica e de Inovação de todas as regiões do país. O centro tem pesquisadores de várias instituições de ciência e tecnologia do estado de São Paulo, incluindo todas as universidades públicas. A rede tem por meta cobrir cinco aspectos de cidades inteligentes: cibersegurança, educação, infra-estrutura, meio-ambiente e saúde. No aspecto relacionado a infra-estrutura, são de particular interesse os subtemas de energia, comunicação e mobilidade. Por seu caráter aplicado, foi firmado um acordo para colaboração futura com algumas cidades do país e participa também um grupo de empresas cujas atividades englobam os temas mencionados. Serão enfatizadas no centro a transferência de tecnologia, a educação e a divulgação de conhecimento para o uso correto, justo, transparente e eficiente de Inteligência Artificial para o fomento de cidades inteligentes no Brasil e no exterior.
Membro: Alneu de Andrade Lopes.
10.   2021-2021. Projeto: Plataforma de Jogos Customizáveis para o Ensino Infantil e Para Crianças com Deficiência: Aplicação em Organizações Sociais de São Carlos
Jogos digitais são sistemas computacionais interativos, potencialmente não-lineares, que fornecem feedback constante ao longo da sua utilização. Tais jogos são usados para o lazer, entretenimento e, cada vez mais, como ferramenta para a educação e saúde. Os jogos também podem promover o ensino e a reabilitação de indivíduos de forma lúdica e estimulante. Dentre os diferentes tipos de jogos, encontra-se na literatura o conceito de jogos sérios (serious games) que tem como objetivo central a aprendizagem independente do contexto. Eles envolvem o uso de tecnologias de jogos digitais com o propósito de simular problemas do mundo real. Diversos autores da literatura definem que jogos sérios são Ambientes Virtuais (AVs) que buscam unir diversão e entretenimento aos seus usuários (games) com aspectos de ensino e comunicação (serious). A área de End-User Programming (EUP), por sua vez, investiga a oferta de ferramental que permita que usuários quaisquer criem aplicações sem exigir dos mesmos conhecimento técnico em programação. Este projeto tem como objetivo estabelecer o design e a implementação de uma plataforma de jogos digitais, nomeada de RUFUS, que permita a profissionais da Educação realizarem a autoria de suas próprias instâncias de jogos e as utilizarem no contexto de aulas de matemática e lógica, por exemplo, com crianças do Ensino Infantil e crianças com deficiência intelectual do município de São Carlos/SP. Engajar alunos no ensino tem sido um grande desafio na sociedade moderna. Neste sentido, os jogos podem ser usados como aliados e apoiar o engajamento de forma lúdica e responsável. Espera-se envolver alunos, pais, professores e pedagogos em um processo de construção conjunta, de perspectiva interpessoal, social e cultural, no qual por meio de técnicas do Design Participativo e da Semiótica Organizacional, eles participem ativamente da construção do sistema computacional com vistas a tentativa de aumentar as chances de uso da solução, bem como à sua adesão.
Membro: Kamila Rios da Hora Rodrigues.

2020

1.   2020-2020. (Proc. FAPESP 2018/22214-6) Rumo à convergência de tecnologias: de sensores e biossensores à visualização de informação e aprendizado de máquina para análise de dados em diagnóstico clínico
Grandes desafios, como a fabricação de dispositivos sensores para diagnóstico precoce de câncer e detecção de contaminação de alimentos / água, só podem ser abordados com esforços conjuntos em pesquisas multidisciplinares. Problemas selecionados dentro dos desafios acima serão abordados neste projeto por uma equipe multiinstitucional de físicos, químicos, engenheiros, médicos e cientistas da computação, com dois tópicos unificadores: fabricação e caracterização de filmes nanoestruturados, particularmente aqueles de interesse biológico, e dados avançados. métodos de análise. Mais especificamente, vários tipos de filmes nanoestruturados serão empregados em sensoriamento e biosensing. Um dos principais objetivos em tais estudos é alcançar a compreensão em nível molecular dos mecanismos responsáveis pelas características sensoriais, incluindo efeitos de interface para projetar baterias orgânicas para fornecer energia em biossensores implantáveis. Este tipo de pesquisa básica é essencial para o design de novos materiais e ferramentas para diagnóstico e terapia. As aplicações pretendidas para os dispositivos também são diversas, concentrando-se principalmente no diagnóstico precoce do câncer, na detecção de contaminação de alimentos e água e no monitoramento do meio ambiente. Especial ênfase será colocada na fabricação de dispositivos de baixo custo, não apenas com novos materiais, mas também explorando metodologias como a microfluídica, em uma tentativa de produzir tecnologia que deve ser passível de transferência, por ex. para testes em um hospital de câncer. As enormes quantidades de dados gerados com sensores, biosensores e imagens serão processados com métodos estatísticos e computacionais, incluindo visualização de informação e aprendizado de máquina. Isso representará um passo em direção ao diagnóstico assistido por computador, através do qual dados de naturezas distintas são analisados dentro de uma estrutura comum.
Membro: Maria Cristina Ferreira de Oliveira.
2.   2020-2020. [CNPq] Ações no Ensino de Ciências na Educação Básica: ações inovadoras para o ensino de ciências fazendo uso de programação com foco na melhoria do ensino público
O principal objetivo deste projeto é promover o ensino de ciências por meio do uso de tecnologias inovadoras. O ensino de programação para crianças tem despontado como uma tendência mundial. Cada vez mais instituições têm procurado integrar em seus currículos o ensino de alguma forma de programação. Nesse sentido, a Sociedade Brasileira de Computação tem angariado esforços no sentido de incluir o ensino de programação também nos currículos das escolas brasileiras. Além de constituir parte essencial da computação, fornecendo ao aluno a competência para desenvolver programas de software, os defensores do ensino de programação também argumentam que esse aprendizado ajuda na autonomia para se resolver problemas, incentiva o trabalho colaborativo e aumenta a capacidade de pensar de forma sistematizada e criativa. Destaca-se, no entanto, que mais do que ensinar a programar, é preciso promover esse tipo de conhecimento de forma contextualizada. O aluno deve entender que ele pode controlar um equipamento, dar ordens a uma máquina. Programar é, de fato, uma forma de transferir a sua compreensão para a máquina; o essencial está na pessoa, não na máquina. Entre as principais dificuldades no ensino de programação, alguns autores apontam o baixo nível de abstração, a falta de competências de resolução de problemas e a inadequação dos métodos pedagógicos aos estilos de aprendizagem dos alunos. De modo a minimizar tais dificuldades, é fundamental pensar em novas estratégias para o ensino de programação, centradas nos interesses dos alunos, que estão enraizadas nas novas tecnologias. Dentro deste contexto, este projeto de pesquisa tem como objetivo investigar o uso e a integração de ferramentas técnico-pedagógicas com foco na melhoria do ensino público.
Membro: Cristina Dutra de Aguiar.
3.   2020-2020. Aprendizado de Representações para Mineração de Eventos
Um dos principais desafios da Minerac ̧ao de Eventos é obter uma representação estruturada da base de eventos; um processo complexo devido as múltiplas componentes e diferentes tipos de dados. O Aprendizado de Representações é inspirado em metodos de aprendizado profundo que se mostraram promissores na analise de imagem, texto, vídeo e audio. Neste projeto de pesquisa, o objetivo e investigar Aprendizado de Representações para eventos, como parte do processo de Mineração de Eventos. Algumas iniciativas existentes na literatura foram propostas sem considerar restrições espaço-temporais dos eventos. As várias componentes dos eventos apresentam informações valiosas que são úteis para guiar o aprendizado da nova representação do espaço dimensional, sendo importante estender tais iniciativas para incorporar requisitos específicos do problema de Mineração de Eventos.
Membro: Ricardo Marcondes Marcacini.
4.   2020-2020. Combinando redes complexas e word embeddings em tarefas de classificação de textos
A modelagem por redes complexas tem sido utilizada em uma miríade de sistemas complexos. Embora este modelo já tenha sido usado na classificação de textos, a maior parte dos estudos se baseou no modelo de co-ocorrência de palavras para estudar as propriedades estruturais e estilísticas de documentos. Nesse projeto, propomos estender a modelagem tradicional de redes representando textos usando informação de embeddings de palavras. A modelagem proposta consiste no enriquecimento de redes (grafos) por arestas virtuais provenientes de informação contextual das palavras. Espera-se com esta modelagem obter aperfeiçoamentos em alguns aspectos da classificação de textos, incluindo qualidade, robustez e adequação à classificação de textos pequenos. Devido à generalidade dos métodos e técnicas propostas, acreditamos que estas possam ser usadas para estudar também outros sistemas complexos com a generalização do conceito de embeddings de palavras para embeddings de vértices de redes complexas.
Membro: Diego Raphael Amancio.
5.   2020-2020. Design e Desenvolvimento de Jogos Digitais Terapêuticos voltados à Crianças em Tratamento contra o Câncer
Jogos terapêuticos visam apoiar os tratamentos de reabilitação e ajudar os pacientes a compreender, se motivar e persistir nas práticas terapêuticas. Além disso, considerando os aspectos positivos trazidos pelo brincar em situação de hospitalização, é possível pensar sobre a possibilidade do desenvolvimento de jogos digitais terapêuticos, que não apenas entretenham crianças em tratamento contra o câncer e seus cuidadores, mas que possam apoiar os terapeutas durante o tratamento desses pacientes. Assim, este projeto faz parte de um projeto de pesquisa mais amplo da docente proponente deste projeto que estuda o design e a implementação de um jogo digital para o contexto supracitado. Espera-se envolver pacientes, cuidadores e a equipe de saúde do hospital parceiro em um processo de construção conjunta, de perspectiva interpessoal, social e cultural, no qual por meio de técnicas do Design Participativo e da Semiótica Organizacional, eles participem ativamente da construção do sistema computacional na tentativa de aumentar as chances de uso da solução de software, bem como a adesão ao tratamento e melhoria na qualidade de vida dos pacientes e cuidadores. Os bolsistas envolvidos no contexto deste projeto atuarão no design de mini jogos, na implementação dos mesmos e na integração com artefatos previamente desenvolvidos. Os bolsistas participarão ainda das práticas participativas no hospital, sendo uma oportunidade de crescimento pessoal e profissional.
Membro: Kamila Rios da Hora Rodrigues.
6.   2020-2020. Dos dados ao conhecimento: extração e representação de informação no domínio do e-commerce

Membro: Diego Furtado Silva.
7.   2020-2020. Escola Avançada em Big Data Analysis
Professor do módulo Entendendo o valor dos sistemas de recomendação personalizados para o e-business/negócios
Membro: Marcelo Garcia Manzato.
8.   2020-2020. FAPESP Regular - COVID-19 - Analisando Dados Complexos Vinculados a COVID-19 para Apoio à Tomada de Decisão e Prognóstico
Este projeto de pesquisa visa propor, explorar e desenvolver novos métodos e algoritmos a serem usados em processos de tomada de decisão para diagnóstico médico e prognóstico de pacientes no contexto da COVID-19. Estes métodos e algoritmos serão instanciados em sistemas e aplicativos que serão disponibilizados à comunidade científica para apoiar de modo rápido e preciso tal processo de tomada de decisão. Os desafios a serem sobrepujados começam na montagem de bases de dados e imagens provenientes de plataformas distintas e muitas vezes incompletas, e à aplicação da técnica de radiômica sobre imagens de Raio-X (RX) e tomografia computadorizada (TC), com a premissa de que características quantitativas e qualitativas massivas sobre imagens de RX podem trazer a informação necessária ao diagnóstico de COVID-19, do mesmo modo que a TC fornece. A vantagem dessa abordagem que será investigada é o custo menor e a maior disponibilidade de RX, permitindo que mais pacientes sejam beneficiados pelos resultados dessa proposta. Além de disponibilizar material curado e consistente para pesquisas e avanços na área de COVID-19. Além disso, bases de dados e imagens consistentes para pesquisa serão disponibilizadas para a comunidade da área.
Membro: Robson Leonardo Ferreira Cordeiro.
Este projeto de pesquisa suplementar visa propor, explorar e desenvolver novos métodos e algoritmos a serem usados em processos de tomada de decisão para diagnóstico médico e prognóstico de pacientes no contexto da COVID-19. Estes métodos e algoritmos serão instanciados em sistemas e aplicativos que serão disponibilizados à comunidade científica para apoiar de modo rápido e preciso tal processo de tomada de decisão. Os desafios a serem sobrepujados começam na montagem de bases de dados e imagens provenientes de plataformas distintas e muitas vezes incompletas, e à aplicação da técnica de radiômica sobre imagens de Raio-X (RX) e tomografia computadorizada (TC), com a premissa de que características quantitativas e qualitativas massivas sobre imagens de RX podem trazer a informação necessária ao diagnóstico de COVID-19, do mesmo modo que a TC fornece. A vantagem dessa abordagem que será investigada é o custo menor e a maior disponibilidade de RX, permitindo que mais pacientes sejam beneficiados pelos resultados dessa proposta. Além de disponibilizar material curado e consistente para pesquisas e avanços na área de COVID-19. Além disso, bases de dados e imagens consistentes para pesquisa serão disponibilizadas para a comunidade da área.
Membro: Elaine Parros Machado de Sousa.
Este projeto de pesquisa visa propor, explorar e desenvolver novos métodos e algoritmos a serem usados em processos de tomada de decisão para diagnóstico médico e prognóstico de pacientes no contexto da COVID-19. Estes métodos e algoritmos serão instanciados em sistemas e aplicativos que serão disponibilizados à comunidade científica para apoiar de modo rápido e preciso tal processo de tomada de decisão. Os desafios a serem sobrepujados começam na montagem de bases de dados e imagens provenientes de plataformas distintas e muitas vezes incompletas, e à aplicação da técnica de radiômica sobre imagens de Raio-X (RX) e tomografia computadorizada (TC), com a premissa de que características quantitativas e qualitativas massivas sobre imagens de RX podem trazer a informação necessária ao diagnóstico de COVID-19, do mesmo modo que a TC fornece. A vantagem dessa abordagem que será investigada é o custo menor e a maior disponibilidade de RX, permitindo que mais pacientes sejam beneficiados pelos resultados dessa proposta. Além de disponibilizar material curado e consistente para pesquisas e avanços na área de COVID-19. Além disso, bases de dados e imagens consistentes para pesquisa serão disponibilizadas para a comunidade da área.
Membro: Agma Juci Machado Traina.
9.   2020-2020. POrtuguese processing - Towards Syntactic Analysis and parsing (POeTiSA) in the Center for Artificial Intelligence (C4AI)
POeTiSA is a long term project that aims at growing syntax-based resources and developing related tools and applications for Brazilian Portuguese language, looking to achieve world state-of-the-art results in this area. On the resource side, we focus on the production of a large and comprehensive multi-genre corpus of Universal Dependencies-based part of speech and syntactically annotated texts, including mainly news texts and user-generated content (tweets and online comments). Regarding the tools, we aim to investigate recent neural and distributional-based methods for training robust parsing models for Portuguese. The project also envisions the production of applications on opinion mining and sentiment analysis tasks that may benefit from syntactic knowledge, as opinion summarization, helpfulness prediction, aspect idetification, deception detection and emotion classification. This project is part of the Natural Language Processing initiative (NLP2) of the Center for Artificial Intelligence (C4AI) of the University of São Paulo, sponsored by IBM and FAPESP (grant #2019/07665-4). The center is part of the FAPESP Engineering Research Centers Program and is committed to state-of-the-art research in Artificial Intelligence, exploring both foundational issues and applied research.
Membro: Thiago Alexandre Salgueiro Pardo.
Descrição: O Center for Artificial Intelligence congrega cerca de 120 pesquisadores de várias instituições, com suporte da FAPESP e IBM. O Centro é sediado na USP, nas dependências do InovaUSP, e conduz pesquisas em temas básicos e aplicados da área de inteligência artificial, bem como se preocupa com transferência de tecnologia e difusão.. .
Membro: Solange Oliveira Rezende.
10.   2020-2020. Práticas com Tablets e Celulares - Módulo Avançado - Curso a Distância
O curso de práticas com tablets e celulares vem acontecendo de forma presencial no ICMC/USP desde 2015. Com os perigos oferecidos pelo vírus SARS-Cov-2 ao público idoso, as atividades presenciais foram suspensas no primeiro semestre de 2020, e algumas atividades virtuais foram realizadas. A ausência do curso foi sentida pelos idosos e os coordenadores, professores e monitores voluntários reuniram esforços para replanejar o cronograma e as atividades, de modo a oferecer o curso de forma remota. É uma estratégia para manter os idosos ativos digitalmente e levar conhecimento aos mesmos. O momento demanda desse público o uso da tecnologia e o curso pode oferecer o ensino remoto dos novos aplicativos usados durante o distanciamento social. O curso tem por objetivo principal oferecer letramento digital ao público idoso da cidade de São Carlos com o ensino de configurações básicas dos smartphones e de aplicativos que emergiram ou que tiveram seu uso disseminado durante o período de distanciamento social, como o iFood, Spotify, Zoom, entre outros.
Membro: Kamila Rios da Hora Rodrigues.
11.   2020-2020. Representações semanticamente enriquecidas para mineração de textos em português: Modelos e Aplicações
Com a crescente geração e disponibilização de textos, seja internamente nas organizações ou na Web, técnicas de Mineração de Textos têm se tornado essenciais no apoio à análise e extração de conhecimento desses dados. Independentemente da aplicação ou técnica utilizada, o tratamento semântico dos textos é um grande desafio do processo de mineração. Esse desafio é ainda maior quando se considera textos escritos no idioma português, visto as particularidades do idioma e o limitado volume de recursos e pesquisas desenvolvidas. Nesse contexto, este projeto visa avançar as pesquisas da área de Mineração de Textos, com foco no idioma português, e disseminar o conhecimento da área por meio da aplicação em diferentes problemas do mundo real. Assim, serão investigados e propostos modelos de representação de textos semanticamente enriquecidos, abordando tanto representações no modelo espaço-vetorial quanto representações em rede, bem como sua aplicação no aprendizado baseado em uma única classe. Para viabilizar a pesquisa, coleções de textos escritos em português serão coletadas, preparadas e caracterizadas, disponibilizando à comunidade informações consolidadas sobre coleções rotuladas e disponibilizadas para pesquisa. Por fim, as representações semanticamente enriquecidas serão avaliadas e aplicadas em diferentes problemas práticos de Mineração de Textos, como análise de sentimentos, sistemas de recomendação, detecção de notícias falsas, descoberta baseada em literatura e mineração de eventos
Membro: Ricardo Marcondes Marcacini.
Com a crescente geração e disponibilização de textos, seja internamente nas organizações ou na Web, técnicas de Mineração de Textos têm se tornado essenciais no apoio à análise e extração de conhecimento desses dados. Independentemente da aplicação ou técnica utilizada, o tratamento semântico dos textos é um grande desafio do processo de mineração. Esse desafio é ainda maior quando se considera textos escritos no idioma português, visto as particularidades do idioma e o limitado volume de recursos e pesquisas desenvolvidas. Nesse contexto, este projeto visa avançar as pesquisas da área de Mineração de Textos, com foco no idioma português, e disseminar o conhecimento da área por meio da aplicação em diferentes problemas do mundo real. Assim, serão investigados e propostos modelos de representação de textos semanticamente enriquecidos, abordando tanto representações no modelo espaço-vetorial quanto representações em rede, bem como sua aplicação no aprendizado baseado em uma única classe. Para viabilizar a pesquisa, coleções de textos escritos em português serão coletadas, preparadas e caracterizadas, disponibilizando à comunidade informações consolidadas sobre coleções rotuladas e disponibilizadas para pesquisa. Por fim, as representações semanticamente enriquecidas serão avaliadas e aplicadas em diferentes problemas práticos de Mineração de Textos, como análise de sentimentos, sistemas de recomendação, detecção de notícias falsas, descoberta baseada em literatura e mineração de eventos.
Membro: Solange Oliveira Rezende.
12.   2020-2020. SPIRA: Sistema de detecção Precoce de Insuficiência Respiratória por meio de análise de Áudio
O objetivo deste estudo é desenvolver uma ferramenta que possa detectar precocemente as pessoas com insuficiência respiratória devido a COVID-19 usando dados de fala. Para tanto iremos coletar registros em áudio de pessoas infectadas bem como de pessoas normais, a fim de explorar diferenças associadas à saturação de O2 e à frequência respiratória que permitam distinguir os dois grupos. A ferramenta de classificação automática proposta será baseada em técnicas de inteligência artificial, processamento de sinais e aprendizado de máquina, e servirá inicialmente para facilitar a triagem de pacientes que precisam procurar auxílio médico-hospitalar. Numa segunda etapa, a ferramenta poderá ajudar sistemas de telemedicina a monitorar pacientes de forma contínua, permitindo o acompanhamento da evolução de pacientes internados. Website: https://spira.ime.usp.br/coleta/. Suporte: FAPESP.
Membro: Sandra Maria Aluísio.
13.   2020-2020. TaRSila -- Reconhecimento Automático de Fala e Síntese de Fala no Centro de ia (C4AI)
The project TaRSila aims at growing speech datasets for Brazilian Portuguese language, looking to achieve state-of-the-art results for the following tasks: (a) automatic speech recognition (ASR) that automatically transcribes speech; (b) multi-speaker synthesis (TTS) that generates several voices from different speakers; (c) speaker identification/verification that selects a speaker from a set of predefined members (speakers seen during the training of the models --- called closed-set scenario --- or in open-set scenario in which the verification occurs with speakers not seen during the training of the models); and (d) voice cloning that uses a few minute/second voice dataset to train a voice model with synthesis methods, which can read any text in the target voice. In TaRSila, we are manually validating speech datasets of academic projects such as: (i) Nurc-Recife (OLIVEIRA JR, 2016); (ii) SP 2010 (MENDES, 2013); (iii) ALIP (GONÇALVES, 2019); and (iv) C-ORAL Brasil (RASO & MELLO, 2012). A collection of life-stories of the Museu da Pessoa (MuPe) is currently being negotiated to be part of our large corpus CORAA (COrpus de Aúdios Anotados) and NURC-SP is under preprocessing (audio-transcription alignment and automatic transcription) to start the human annotation and validation for the purpose of training ASR models. Regarding the tools, we aim to investigate recent deep learning methods for training robust ASR and TTS models for Portuguese. The project also foresees applications in semantic search from speech transcriptions, as well as sentiment analysis and automatic organization of speech datasets into topics. This project is part of the Natural Language Processing initiative (NLP2) of the Center for Artificial Intelligence (C4AI) of the University of São Paulo, sponsored by IBM and FAPESP (grant #2019/07665-4). The center is part of the FAPESP Engineering Research Centers Program and is committed to state-of-the-art research in Artificial Intelligence, exploring both foundational issues and applied research. This project was also funded by CEIA with support by the Goiás State Foundation (FAPEG grant \#201910267000527) (http://centrodeia.org/), Department of Higher Education of the Ministry of Education (SESU/MEC), Copel Holding S.A. (www.copel.com), and Cyberlabs Group (https://cyberlabs.ai/). CEIA was responsible for paying the annotation team composed of 63 students from October 2020 to November 2021
Membro: Sandra Maria Aluísio.

2019

1.   2019-2019. [FAPESP] Processamento de Consultas OLAP e SOLAP em Ambientes Computacionais Paralelos e Distribuídos
O processamento de consultas OLAP (on-line analytical processing) é considerado significantemente custoso, devido ao grande volume de dados armazenados no data warehouse e ao fato dessas consultas realizarem junção-estrela. Consultas SOLAP (spatial OLAP) são ainda mais custosas, desde data warehouses espaciais são consideravelmente mais volumosos e demandam, além da junção-estrela, a realização de onerosos cálculos relativos ao processamento de predicados topológicos. O processamento de consultas OLAP e SOLAP pode ser beneficiado pelo uso de ambientes computacionais com grande capacidade de armazenamento e de processamento, nos quais existe o emprego de paradigmas de programação paralela e distribuída, como os frameworks Apache Hadoop MapReduce e Apache Spark. Adicionalmente, consultas SOLAP podem se beneficiar do uso de DSDMSs (distributed spatial data management systems), que são sistemas que estendem os frameworks supracitados para armazenar, indexar e processar grandes volumes de dados espaciais (ex.: SpatialHadoop e SpatialSpark). Dentro deste contexto, este projeto de pesquisa tem como objetivo propor e implementar soluções voltadas ao processamento eficiente de consultas OLAP e SOLAP em ambientes computacionais paralelos e distribuídos. Pretende-se investigar: (i) processamento da junção-estrela considerando consultas slice and dice de baixa seletividade; (ii) processamento da junção-estrela considerando consultas drill-down, roll-up e drill-across de baixa e alta seletividade, (iii) análise comparativa de DSDMSs disponíveis na literatura; e (iv) processamento da junção-estrela estendida com predicados espaciais, usando como base funcionalidades providas por DSDMSs.
Membro: Cristina Dutra de Aguiar.
2.   2019-2019. Análise e Mineração de Redes Complexas
Projeto submetido ao CNPq relacionado à bolsa de produtividade em pesquisa Pq-2, que dá continuidade e amplia as pesquisas realizadas no contexto do projeto anterior Análise e Mineração de Redes Sociais, desenvolvido no período de 01/03/2016 a 28/02/2019. Ou seja, o projeto mantém o foco na mineração de redes complexas, porém, agora, visa explorar novas áreas de mineração não endereçadas no projeto anterior, cujo foco foi principalmente as redes sociais online.
Membro: Alneu de Andrade Lopes.
3.   2019-2019. Apoio à cirurgia de epilepsia: abordagem computacional para planejamento de neurocirurgias baseado em grande volume de dados, aprendizagem de máquina e redes complexas
Edital de Apoio a Projetos que Façam Uso de Sistemas Inteligentes. Modalidade Articulação de Grandes Projetos. Portaria PRP/USP no 668, de 17/10/2018. Equipe: DCM-FFCLRP-USP: Zhao Liang (coordenador), Luiz Otavio Murta Junior, Renato Tinós, Joaquim Cezar Felipe, José Augusto Baranauskas; SCC-ICMC-USP: Maria Cristina Ferreira de Oliveira, João Luís G. Rosa, Alneu de Andrade Lopes; FMRP-USP: João Pereira Leite, Antonio Carlos dos Santos, Norberto Garcia Cairasco; UNIFESP: Elbert Einstein Nehrer Macau, Marcos Goncalves Quiles; Institute of Automation, Chinese Academy of Science, China: Zengguang Hou; Massachussetts General Hospital, Harvard University, USA: Gregory C. Sharp.
Membro: João Luís Garcia Rosa.
4.   2019-2019. Aprendizado de Websensors para Agronegócios
Período: 01/03/2019 até 01/03/2021 Coordenador: Ricardo M. Marcacini Processo: 426663/2018-7 Financiador: CNPq
Membro: Ricardo Marcondes Marcacini.
O agronegócio é uma das principais atividades econômicas do Brasil, representando anualmente (desde 2006) uma média de 21% do PIB brasileiro, acumulando um crescimento de 4,4% em 2016, mesmo em período de recessão econômica. Por outro lado, a cadeia produtiva do agronegócio é considerada complexa devido aos muitos fatores envolvidos, como efeitos climáticos, controle de pragas e doenças, controle de insumos (e.g. fertilizantes, sementes, defensivos, vacinas e máquinas), serviços de crédito (e.g. câmbio e taxas de juros), as atividades de produção de agricultura e pecuária propriamente ditas; e as etapas pós-produção, como embalagem, armazenagem, industrialização, transporte e distribuição. Esta diversidade de fatores é responsável pelo conceito de riscos e incertezas da cadeia produtiva do agronegócio, com a principal consequência de que o preço de venda durante a etapa de comercialização foge ao controle do produtor. Assim, uma gestão moderna do agronegócio incorpora instrumentos para gerenciamento de riscos com o objetivo de amenizar tais incertezas e conferir uma estabilidade mínima ao produtor. Nesse contexto, o gerenciamento de riscos com uso de mercado de futuros, como a Bolsa de Mercadorias e Futuros da BOVESPA (BM&F-BOVESPA) tem se tornado cada vez mais popular, atingindo 1.860.877 contratos de derivativos relacionados ao agronegócio em 2016. Neste mercado, o produtor (avesso ao risco) transfere o risco de oscilação do preço para empresas e/ou indivíduos que operam no mercado de futuros e que esperam receber um prêmio para assumir tal risco. Definir boas estratégias de gerenciamento de riscos depende de um conjunto adequado de informações sobre problema para determinar intervalos de variação de preços no futuro. Neste projeto é proposto um produto denominado Websensors Analytics para inovar o gerenciamento de riscos em agronegócios. Websensors é um framework de aprendizado de máquina com o diferencial de coletar e combinar grandes bases de informações disponíveis em diversas fontes sobre agronegócios, como notícias e boletins especializados, e utilizar tais bases de dados em conjunto com indicadores oficiais (como cotações de preços) para melhorar tarefas de análise preditiva de preços. Esta proposta de inovação tecnológica é baseada em 4 anos de pesquisa na área, com resultados promissores para apoiar o desenvolvimento deste produto. Além da ausência de produtos nacionais similares nesta área específica, o agronegócios está em acentuada expensão e exigirá cada vez mais de soluções inovadoras para aumentar a eficiência deste setor..
Membro: Solange Oliveira Rezende.
5.   2019-2019. Ferramenta Inteligente para Conversão de Prontuário Eletrônico do Paciente
Prontuários Eletrônicos do Paciente (PEP) são cada vez mais utilizados em unidades de saúde no Brasil. Eles dão mais segurança e agilidade ao processamento dos dados dos pacientes. Porém, cada unidade de saúde tem autonomia para desenvolver seu próprio PEP. Essa falta de interoperabilidade dificulta a integração de dados de pacientes de diferentes instituições e a criação de sistemas inteligentes genéricos de análise de dados que possam processar dados de diferentes origens. Como todos os PEPs contém os mesmos tipos de informação, dados médicos padrões sobre um paciente, é possível a criação de ferramentas para sua conversão para outros formatos. O objetivo deste projeto de pesquisa foi a criação de uma ferramenta de mapeamento para a conversão automática de dados de PEPs, em formato tabular (tabelas de banco de dados e planilhas), para um formato comum baseado em ontologias, usando RDF (Resource Description Framework). Ela é formada por uma Domain Specific Language (DSL) capaz de representar um mapeamento de um formato tabular para um formato baseado em uma ou mais ontologias definidas na Web Ontology Language (OWL). Os dados de interesse do formato tabular são representados em RDF, com informações de tipo, e podem ser conectados a outras informações do próprio conjunto de dados ou a fontes externas. Esses dados em RDF reutilizam conceitos médicos públicos da Web, como a taxonomia CID-9 e a ontologia SNOMED-CT, e, por isso, podem ser usados na criação, teste e reuso de sistemas inteligentes de análise de dados mais genéricos.
Membro: Dilvan de Abreu Moreira.
6.   2019-2019. Gestão da Informação de do conhecimento no âmbito do Portfólio de pastagens da Embrapa
Descrição: O projeto tem como objetivo mapear o conhecimento, as informações e os dados gerados sobre o domínio "pastagens", com ênfase no subtema "recuperação de pastagens" - incluindo um diagnóstico do ambiente externo -, para subsidiar a gestão estratégica da informação no âmbito do Portfólio de Pastagens. Para isso, aplicará técnicas e ferramentas da Gestão do Conhecimento e da Informação, bem como da Socioeconomia, para oferecer ao Portfólio estudos que norteiem as tomadas de decisão do comitê gestor, no sentido de acelerar o processo de inovação neste tema..
Membro: Solange Oliveira Rezende.
7.   2019-2019. Investigação e desenvolvimento de módulos de AutoML na plataforma Marvin em consonância com requisitos de desempenho e alta disponibilidade

Membro: Diego Furtado Silva.
8.   2019-2019. LexPorBr Infantil
LexPorBr Infantil: Compilação de um corpus tripartido (textos didáticos para serem lidos por crianças, textos ouvidos por crianças em filmes e series infantis e textos escritos por crianças em competições de redações) e disponibilização pública via interface online com métricas para pesquisas da área de psicolinguística, linguística computacional, dentre outras. Joint Project involving researchers of ICMC/USP, UFABC, UFPB.
Membro: Sandra Maria Aluísio.
9.   2019-2019. Medicina preventiva por meio de técnicas de Deep Learning aplicadas ao prognóstico de saúde
Deep Learning (DL) describes a class of algorithms capable of combining raw inputs into successive layers of intermediate features to achieve computational intelligence. These algorithms have shown impressive results across several domains. In Medicine, for example, which is a data-rich discipline, the data are complex and often not yet understood. Deep Learning techniques may be particularly well-suited to solve problems in this field. In that context, the aim of this project is to explore the possibilities of DL in the context of computer-aided medicine; the activities include dealing with the various problems related to the application of DL to the specific context of clinical data. The issues include pre-processing demands to produce large, labeled, and cleaned datasets of clinical data; modeling complex information according to the demands of DL processing; fine-tuning DL architectures with respect to the specific problems of prognostic care; iterative training-testing rounds to achieve highly accurate methods; clinical validation of the results; and dissemination of the methods in the form of real-world applications with actual social impact. These tasks will be carried out over two initial problems: (i) the automatic detection of skin tumors from skin lesion photos; (ii) the prognostic of patients based on the clinical history as given by Electronic Medical Records (EMRs). The first problem will use open-access data from the ISIC Dermoscopic Archive, and from the Edinburgh Dermofit Library to transfer-learn over the ResNet-152 network modeled to the ILSVRC competition. The second problem will use data from the French institution AGIR to guide the modeling and training of a Long Short-Term Memory DL architecture capable of inferring over large contexts of sequential information, as those seen in EMRs. The two methods shall impact on practices of preventive medicine, allowing for early detection of skin tumors and early recommendation of treatments/procedures. This impact is of special importance to the Brazilian scenario, in which basic health care is inaccessible in many regions of the country. The postdoc period will contribute to the expertise of the proponent in a currently active research field, promoting new investigative fronts to his research group.
Membro: José Fernando Rodrigues Júnior.
10.   2019-2019. Memórias pantaneiras: a arte de Haroldo Palo Jr.
Exposição fotográfica (organização e curadoria)
Membro: Alneu de Andrade Lopes.
11.   2019-2019. Pint of Science São Carlos
Festival de divulgação científica que leva os pesquisadores a compartilharem seus conhecimentos e experiências diretamente com o público em espaços fora das universidades, em particular ambientes descontraídos como restaurantes e bares. Durante o festival, os pesquisadores conversam diretamente com o público e respondem perguntas. Não há formalidades como inscrição ou emissão de certificados. O Pint of Science contribui para evidenciar como as ciências básicas e as aplicadas podem contribuir para aprimorar a qualidade de vida da sociedade e para a construção de uma sociedade melhor.
Membro: Moacir Antonelli Ponti.
12.   2019-2019. Plataforma de Gerenciamento de Provas Virtuais
Uma plataforma web completa para gerenciamento de provas virtuais com o diferencial de incorporar provas adaptativas, inteligência artificial para apoiar correção de questões discursivas e detecção de plágio, bem como integração com ferramentas de acessibilidade para deficiência auditiva e visual.
Membro: Ricardo Marcondes Marcacini.
13.   2019-2019. Projeto Codifikids - 2o. semestre

Membro: Marcelo Garcia Manzato.
14.   2019-2019. Projeto Universal - Desenvolvimento de índices polivalentes para consultas por similaridade

Membro: Robson Leonardo Ferreira Cordeiro.
Auxílio Integrado à Pesquisa do CNPq -- 'Universal' 2018
Membro: Caetano Traina Junior.
15.   2019-2019. RASTROS: Um grande corpus com medidas de RASTReamento Ocular e normas de previsibilidade durante a leitura de estudantes do ensino Superior no Brasil
Currently, eye tracking corpora are often used in studies of language structure processing costs to, for example, (i) evaluate models and metrics of syntactic difficulty, (ii) improve or evaluate computational models of simplification via sentential compression, and (iii) evaluate the quality of machine translation with objective metrics. However, there are only few of these corpora for a small number of languages, for example: English (Luke and Christianson, 2018; Cop et al., 2017), English and French (Kennedy et al., 2013), German (Kliegl et al.., 2004), Russian (Laurinavichyute et al., 2018), Hindi (Husain et al., 2015) and Chinese (Yan et al., 2010). For Portuguese, there is no large eye tracking corpus with predictability norms like those mentioned above. This is a gap that hinders the advance of research in the areas of Cognitive Psychology, Psycholinguistics and Natural Language Processing (NLP) in Portuguese. In this project, we have two objectives: (i) to create and make publicly available a large corpus with eye tracking movements of short paragraphs during silent reading in Portuguese, by undergraduate students in Brazil, together with predictability norms that estimate the predictability of orthographic form, morphosyntactic and semantic information for each word in the paragraph, via a Cloze test, and (ii) to contribute to the dissemination of research using the eye movement techniques in the Psycholinguistics and PLN research areas. The methodology for developing the RastrOS corpus follows the same steps of the Provo project (Luke and Christianson, 2018), which used: (i) short paragraphs of various genres; (ii) the reading of 55 paragraphs for the eye tracking test and 5 paragraphs for the Cloze test; and (iii) each word of the corpus being read by at least 40 students. For RastrOS, the 50 paragraphs of the corpus were taken from various sources in journalistic, literary and popular science genres, at a rate of 40% for newspaper articles, 20% for literary texts and 40% for popular science communication. The 50 paragraphs were selected from a corpus larger than 100 paragraphs to account for the greatest diversity of linguistic factors relevant for processing cost assessment, reflected in the reading process: structural complexity of the period (simple vs. compound periods); verbal transitivity; sentence types (active / passive / relative); mechanisms of construction of correlation relations, among others. RastrOS uses a highly accurate eye-tracker - the EyeLink 1000 Desktop. Stimulus presentations were done by Experiment Builder software, data processing has been done by Data Viewer. We are evaluating 4 semantic similarity methods: (i) LSA (Landauer e Dumais 1997) and (ii) BERT (Devlin et al., 2019) trained with the corpus brWaC (Wagner Filho et al., 2018), (iii) Word2vec (Mikolov et al., 2013) and (iv) FastText (Bojanowski, et al., 2017) trained with the corpus PUC-RS that includes brWaC, BlogSet-BR (Santos et al., 2018) and a Brazilian Portuguese Wikipedia dump from March 2019. The words are annotated with morphosyntactic categories of the PALAVRAS parser (https://visl.sdu.dk/) with human revision.
Membro: Sandra Maria Aluísio.
16.   2019-2019. Teoria de singularidades e aplicações a geometria diferencial, equações diferenciais e visão computacional
A teoria de singularidades trata do estudo de variedades e aplicações singulares.É uma teoria bem consolidada e ganhou interesse devido a suas amplas aplicações a várias áreas das ciências e à sua interação com diversas áreas da matemática. Existem aplicações da teoria à ótica, à robótica e à visão computacional, entre outras.O projeto possui quatro linhas de pesquisa centrais: uma trata de problemas na teoria de singularidades e as três outras consideram aplicações desta teoria à geometria diferencial, às equações diferenciais e a visão computacional.O projeto dará continuidade aos trabalhos da equipe nestes ramos de pesquisa e iniciará duas novas e grandes linhas de pesquisa sobre o estudo de campos vetoriais do ponto de vista infinitesimal e o reconhecimento de imagens usando uma abordagem geométrica.
Membro: João do Espirito Santo Batista Neto.

2018

1.   2018-2018. AGRICULTURA EM UM POCT: Agricultura de Precisão Usando Dispositivos Analíticos Microfluídicos em Papel de Baixo Custo para Analises Químicas
A população mundial cresce rapidamente e chegará em 2030 a 8,5 bilhões de pessoas, ante 7,3 bilhões atuais, devido a melhorias na saúde pública e redução da mortalidade infantil. Com um crescimento tão expressivo da população mundial o fornecimento de alimentos torna-se vital. A agricultura desempenha um papel notável no fornecimento de alimentos na sociedade e na economia, contudo, o monitoramento de nutrientes no solo para uma boa produção é indispensável e de extrema importância. O desenvolvimento de uma plataforma baseada em papel para determinação simultânea de nutrientes associada ao uso de detectores portáteis capazes de transmitir informações digitais sobre os canais de comunicação existentes, fornecem uma abordagem integrada para detecção em regiões remotas. O principal interesse em dispositivos microfluídicos a base de papel é devido ao seu baixo peso, portabilidade, dispositivo biodegradável, baixo custo de fabricação e consumo de reagentes. A utilização de reações colorimétricas simples viabiliza o seu desenvolvimento e aplicação na área industrial, ambiental e na agricultura. Os dados uma vez coletados poderão ser utilizados na modelagem da distribuição espacial de nutrientes no território em estudo e posterior correção através do emprego de geoestatística. Dada à relevância da agricultura, o presente projeto tem como objetivo o desenvolvimento de uma plataforma de baixo custo focada na determinação de fosfato, nitrato, nitrito, potássio, borato, ferro, manganês, cobalto, cobre e zinco no solo.
Membro: João do Espirito Santo Batista Neto.
2.   2018-2018. Análise e aprimoramento de cidades por meio de mapas digitais representados por redes complexas
As redes complexas têm potencial na pesquisa e na experimentação computacional por meio de sua ampla capacidade de representar sistemas modelados por seus vértices e arestas, e pelos atributos de seus elementos. Elas proporcionam a representação de estruturas urbanas pela modelagem de suas malhas viárias. Seus elementos, vértices e arestas, descrevem as cidades por intermédio das vias e de suas intersecções. Deste modo, incorporam predicados referentes ao transporte no espaço urbano. Sua aplicação se destaca quando se vincula a estrutura das cidades as suas falhas de planejamento e/ou aos entraves cotidianos que impactam em sua mobilidade por meio da lentidão, de congestionamentos, e da falta de acesso viário. Isto posto, com a análise de informações provenientes das redes viárias, e por meio de métricas inerentes ao seus elementos, este trabalho visa desenvolver técnicas para guiar ações de planejamento mais efetivas por meio da otimização das estruturas viárias de transporte e da caracterização do espaço urbano, empregando técnicas computacionais focadas na análise estrutural, topológica e geométrica da rede, além da extração de suas característica para análise da similaridade entre cidades distintas. A metodologia do trabalho parte da extração, representação computacional e pré-processamento de mapas digitais, amplamente produzidos na atualidade, seguida do desenvolvimento e/ou aprimoramento de algoritmos. Serão usados métodos de redes complexas, técnicas para detecção de agrupamentos e de suas exceções, procedimentos para análise de similaridade, além de processos matemáticos advindos da teoria de funções submodulares, envolvendo a modelagem e otimização de sistemas urbanos. Por meio deste conjunto de métodos, prevê-se contribuições teóricas e práticas, na forma de técnicas e ferramentas de análise, projeto e otimização urbana.
Membro: José Fernando Rodrigues Júnior.
3.   2018-2018. Deep-Learning for Video Scene Segmentation
This project is partially supported by the NVIDIA GPU Grant Program. This research project aims to develop new deep-learning models to perform automatic video scene segmentation. The models are based on processing video deep features using deep networks and are meant to be flexible enough to allow both early-fusion and late-fusion approaches. Proposed models must be evaluated against state-of-the-art related techniques over a public video dataset. This project proposes to investigate the combined use of use both, the feature extraction capabilities of CNNs and sequences processing capabilities of RNNs in order to achieve enhanced video scene segmentation.
Membro: Rudinei Goularte.
4.   2018-2018. Em busca de garantias para a detecção de mudanças de conceito em fluxos de dados
Com o objetivo de modelar variações em fluxos de dados, diversos pesquisadores têm proposto novas abordagens voltadas para a detecção de mudanças de conceito (do inglês, concept drift). Um conceito é caracterizado por uma sequência de observações produzidas por um mesmo processo gerador. Pesquisadores estão interessados em detectar mudanças de conceito a fim de apoiar especialistas na tomada de decisões sobre os fenômenos que produziram tais fluxos. Atualmente, há duas principais linhas de pesquisa voltadas para a detecção de mudanças de conceito: a primeira é baseada em aprendizado supervisionado, enquanto a segunda em estratégias não supervisionadas. Ambas sofrem por não oferecer garantias para a detecção de mudanças de conceito uma vez que a primeira relaxa a premissa de independência dos dados, necessária devido ao Princípio de Minimização do Risco Empírico definido no contexto da Teoria do Aprendizado Estatístico, e a segunda falha por não contar com um arcabouço teórico de sustentação, logo detecções são muitas vezes provenientes da forma com que o algoritmo é parametrizado e não das alterações efetivas nos dados. A fim de abordar essas limitações, este projeto de pesquisa visa a formulação de um arcabouço teórico para garantir que detecções de mudanças de conceito em fluxos de dados sejam decorrentes de alterações provenientes das observações coletadas ao longo do tempo e não do simples acaso ou da parametrização de algoritmos. Além disso, deve-se projetar e desenvolver um algoritmo para a detecção de mudanças de conceito. Experimentos serão conduzidos utilizando transições entre fluxos de dados produzidos por diferentes processos geradores sintéticos, bem como por fluxos produzidos por fenômenos reais.
Membro: Rodrigo Fernandes de Mello.
5.   2018-2018. FAPESP Regular - Mineração de Fluxos de Dados Frequentes e de Alta Dimensionalidade: estudo de caso em jogos digitais
Em um fluxo de dados com muitos atributos e alta frequência de eventos, como encontrar grupos de eventos similares? Como detectar casos de exceção e ordená-los em acordo com o quão fora do padrão cada evento anômalo está? É possível realizar essas tarefas em tempo real? Por exemplo, com base nas ações de usuários ao longo do tempo em um sistema de gerência de partidas online de jogos digitais, como identificar grupos de usuários/jogadores com preferências similares para auxiliar a propaganda direcionada (targeted marketing) e o desenvolvimento de novos jogos? Como encontrar usuários spammers, bots, hackers e jogadores famosos, a fim de restringir acesso às três primeiras categorias e entender o porquê da fama dos demais? Hoje, é evidente a necessidade de algoritmos precisos, rápidos e escaláveis que permitam minerar em tempo real fluxos de dados frequentes e de alta dimensionalidade, os quais são coletados constantemente por sistemas web e por sensores automatizados de diversas aplicações modernas. O presente projeto de pesquisa visa diminuir esse problema com foco no agrupamento de eventos similares e na detecção de casos de exceção em fluxos de dados com milhares de eventos novos recebidos por segundo, descritos por dezenas/centenas de atributos. Como estudo de caso, pretende-se validar as novas metodologias e algoritmos a serem desenvolvidos na análise de fluxos de dados provenientes do sistema de controle de partidas online e de criação e publicação de novo conteúdo referentes ao jogo digital Super Mario Maker da empresa Nintendo Company Ltd..
Membro: Robson Leonardo Ferreira Cordeiro.
6.   2018-2018. Mineração de dados para análise individual e de equipe em esportes coletivos
Com o aprimoramento e a miniaturização de sensores capazes de obter e transmitir diversos tipos de dados, a Internet das Coisas vem ganhando cada vez mais espaço na pesquisa científica e no mercado. Dentre uma infinidade de aplicações de tal tecnologia está a análise esportiva. Especificamente, sensores têm auxiliado a análise estatística do desempenho de atletas. Dispositivos desse tipo já são capazes de transmitir dados como velocidade, batimento cardíaco e posicionamento de jogadores em tempo real. Esses dados são cada vez mais utilizados por equipes de elite em variados esportes, como futebol, basquete e rugby. Apesar do grande e valioso volume de informações obtido, as ferramentas de software atuais para exame de dados são desenvolvidas para análise visual e individualizada. Em outras palavras, os dados obtidos são somente apresentados por meio ferramentas de visualização para a equipe técnica. Para se realizar a análise coletiva dos atletas, os dados são exibidos individualmente por jogador ou exibidos em uma projeção do campo ou quadra, sem considerar qualquer tipo de relação entre os atletas. Na prática, as possibilidades de análise acabam se limitando à observação de fatores físicos, o que pode ajudar a evitar lesões e realizar treinamentos físicos personalizados para cada jogador. Por outro lado, o apoio a decisões táticas e de desempenho coletivo das equipes é praticamente nulo. O objetivo deste projeto é pesquisar e desenvolver ferramentas que auxiliam na melhor compreensão da atuação dos atletas, levando em conta o comportamento coletivo da equipe. Para isso, serão utilizadas técnicas de mineração de dados para encontrar padrões frequentes e atípicos nos dados obtidos por sensores utilizados pelos atletas de esportes coletivos, facilitando a análise do posicionamento e da interação de jogadores durante jogos e treinos. Ainda, será possível apontar quais os aspectos mais semelhantes ou distintos entre tais padrões para análise exploratória e extrair indicadores táticos coletivos a partir deles. Com isso, será possível auxiliar equipes técnicas a melhorar o desempenho individual e coletivo de suas equipes e tomar decisões relativas à adoção ou descarte de determinadas estratégias e treinamentos específicos.
Membro: Diego Furtado Silva.
7.   2018-2018. OPINANDO - Opinion Mining for Portuguese: Concept-based Approaches and Beyond
The OPINANDO project aimed at investigating issues of concept-level analysis for the Brazilian Portuguese language. We were particularly interested on three main research fronts, namely: (i) the identification of relevant texts to mine, which includes tackling text importance and filtering deceptive content; (ii) the analysis of the selected texts, performing the necessary semantic and discourse analysis and identifying subjective content and the corresponding aspects and polarities; and (iii) the synthesis of the relevant information, using text summarization and generation strategies and dealing with the related challenges in these tasks.
Membro: Thiago Alexandre Salgueiro Pardo.
8.   2018-2018. Projeto Codifikids - 2o. semestre

Membro: Marcelo Garcia Manzato.
9.   2018-2018. Recuperação Perceptual de Imagens por Conteúdo e Mineração de Imagens com Suporte de Radiômica para Sistemas de Apoio a Diagnóstico
Fornecer subsídios para tomada de decisões que levem o especialista médico a elaborar diagnósticos mais precisos, com maior rapidez e segurança, certamente traz benefícios para o tratamento e recuperação dos pacientes. Esse projeto de pesquisa visa atuar nessa direção, com o desenvolvimento de novos algoritmos e técnicas de recuperação de imagens por conteúdo para o processamento de consultas por similaridade, que atendam à percepção de similaridade do usuário. Por meio da integração da abordagem radiômica, que integra um volume importante de dados quantitativos, que aliados a dados qualitativos do paciente, que se processados apropriadamente, podem trazer novos impulsos positivos à área de computação em sistemas médicos. Os resultados desta pesquisa trarão impactos relevantes tanto à área de ciências de computação: por meio de algoritmos de extração de características de imagens e dados complexos de exames médicos, como algoritmos de armazenagem e recuperação eficiente desses dados em bases de dados complexos; quanto à área de medicina, permitindo a construção de sistemas de apoio ao diagnóstico (CAD ? Computer Aided Diagnosis) mais precisos e eficientes. O maior beneficiário será o paciente, que receberá tratamentos mais confiáveis, seguros, e mais celeremente.
Membro: Agma Juci Machado Traina.
10.   2018-2018. Semantic Decision Support Systems in Agriculture
ICMC-USP and Embrapa are developing computational tools to be used in the creation of Decision Support Systems in Agriculture. Currently, the mais tool being developed is part of the SustenAgro Project. It aims to develop and validate a methodological proposal and web tools to assess the sustainability of soybean and sugar cane production systems in the Center South of Brazil. It aims to address the main issues related to agricultural production systems in order to enable the rational use of natural resources to meet present needs and ensure the supply of future generations. The SustenAgro system will provide validated technical information, via online web tools and knowledge banks, to support the formulation of private actions and public policies in the agricultural sector.
Membro: Dilvan de Abreu Moreira.
11.   2018-2018. Sigad-Livre: Plataforma Pública para Promoção e Difusão de Tecnologias Livres de Gestão Arquivística de Documentos
Projetos que buscam promover e difundir soluções tecnológicas para a comunidade representam uma das principais atividades de extensão universitária para a área de Ciência de Computação e Sistemas de Informação. No caso do Sigad-Livre, também é nítida a questão da indissociabilidade do Ensino ? Pesquisa ? Extensão; uma vez que a primeira fase do projeto é oriunda de atividades de ensino e pesquisa. A realização deste projeto de extensão também se justifica pela interdisciplinaridade que proporciona, em que os estudantes, técnico (s) e docentes envolvidos utilizarão conhecimentos provenientes das áreas de Arquivologia e Sistemas de Informação, especialmente, mas também de Administração Pública, Direito, entre outras. Além disso, o projeto contribui para a função social da universidade que, por meio do ensino, da pesquisa e da extensão visa oferecer à sociedade conhecimentos e ferramentas necessárias às soluções dos problemas contemporâneos.
Membro: Ricardo Marcondes Marcacini.
12.   2018-2018. Técnicas de Deep Learning aplicadas à medicina visando auxílio diagnóstico preventivo
O termo Deep Learning (DL) descreve uma classe de algoritmos capazes de processar entradas de dados ao longo de camadas sucessivas de neurônios artificiais para obter inteligência computacional. Esses algoritmos mostraram resultados impressionantes em vários domínios. Na Medicina, por exemplo, que é uma disciplina rica em dados, os dados são complexos e muitas vezes ainda não são compreendidos; as técnicas de Deep Learning podem ser particularmente adequadas para resolver problemas neste campo. Mais especificamente, o objetivo deste projeto é explorar as possibilidades de DL no contexto da medicina auxiliada por computador; as atividades incluem lidar com os vários problemas relacionados à aplicação de DL sobre dados clínicos. Os problemas incluem demandas de pré-processamento para produzir conjuntos de dados grandes, rotulados e limpos; modelagem de informações complexas de acordo com as demandas de processamento de DL; ajuste fino de arquiteturas de DL com relação a problemas específicos de tratamento prognóstico; rodadas de testes de treinamento iterativo para obter métodos altamente precisos; validação clínica dos resultados; e disseminação dos métodos na forma de aplicações do mundo real com impacto social real. Neste projeto, essas tarefas serão realizadas em dois problemas: (i) a detecção automática de tumores de pele a partir de fotos de lesões da pele; (ii) o prognóstico de pacientes com base na história clínica, como descrita por Registros Médicos Eletrônicos (RMEs). O primeiro problema usará os dados de acesso aberto do ISIC Dermoscopic Archive, e da Edinburgh Dermofit Library para transferir aprendizado sobre a rede ResNet-152, modelada para a competição ILSVRC. O segundo problema utilizará dados da instituição francesa AGIR para orientar a modelagem e o treinamento de uma arquitetura DL do tipo Long Short-Term Memory, capaz de inferir sobre grandes contextos de informação sequencial, como os vistos em RMEs. Os dois métodos terão impacto nas práticas de medicina preventiva, permitindo a detecção precoce de tumores de pele e a recomendação precoce de tratamentos/procedimentos médicos. Esse impacto é de especial importância para o cenário brasileiro, no qual a atenção básica à saúde é inacessível em muitas regiões do país. O projeto irá contribuir para a expertise do proponente em um campo de pesquisa atualmente ativo, promovendo novas frentes de investigação para seu grupo de pesquisa.
Membro: José Fernando Rodrigues Júnior.
13.   2018-2018. Uma Abordagem Orientada a Modelos para Aplicativos Móveis e da Web, considerando-se Acessibilidade e Interoperabilidade
Software applications have become vital in people´s daily lives. Consequently, the accessibility of these applications also increased in importance. Developing applications which are accessible also for handicapped users can be difficult, tedious, and error-prone. Using model-driven software development (MDSD) techniques, a generator can transform a high-level description of an application into code which ensures the accessibility for all users. This simplifies the development of accessible software enormously, including its connection to backend services. Here, we present a project to compose a collaborative network of experienced researchers on both Web accessibility and MDSD. Our goal is to strengthen our collaborative network and create MDSD solutions that enable the easy development of accessible Web applications and apps for mobile devices. This project involves researchers from the University of Münster (WWU), Germany, the University of São Paulo (USP), and the Federal University of São Carlos (UFSCAR). It presents a description of how the principal investigators in the three universities intend to prepare a joint research project, resulting from exchanging activities, to create a medium-long-term collaboration. PROJETO SPRINT - São Paulo Researchers in International Collaboration The project evolves researchers from Univ. Münster (Germany) and from ICMC-USP (Brazil)
Membro: Renata Pontin de Mattos Fortes.
14.   2018-2018. Visual Analytics: aplicações (Produtividade em Pesquisa, Nível 1C - Processo CNPq 301847/2017-7)
A pesquisa em Visual Analytics é central no tratamento dos desafios associados à análise de dados e computação intensiva em dados, pelo potencial de combinar técnicas de Aprendizado de Máquina e de Visualização para apoiar a interpretação de dados complexos. O acoplamento de técnicas oriundas de ambas as áreas pode promover avanços significativos na capacidade humana de análise de dados, pois permite a indivíduo e computador assumirem papeis complementares ao tratar os muitos problemas introduzidos pelo volume e complexidade dos conjuntos de dados gerados em diversos domínios de aplicação. Neste projeto abordo dois focos distintos em visual analytics, um de natureza aplicada e outro de natureza conceitual. No aspecto aplicado serão considerados (i) o problema de visualização de redes de grande escala, com ênfase em redes sociais; e (ii) o problema da análise exploratória de espaços de atributos que caracterizam fenômenos multivariados e variantes no tempo -- por exemplo, resultantes de sensores utilizados para monitoramento ambiental em diversos domínios. Em ambos os casos, a busca por soluções escaláveis para grandes volumes de dados representa um desafio. No aspecto conceitual, dando continuidade a uma colaboração em andamento, iremos conceber e realizar alguns estudos experimentais que contribuam para esclarecer os processos cognitivos subjacentes à interpretação de um tipo particular de visualização multidimensional, os chamados mapas de similaridade. A análise dos resultados pode sugerir modelos conceituais sobre a interpretação desse tipo de mapeamento visual, contribuindo para ampliar o embasamento conceitual sobre essas técnicas, essencial para futuros avanços na área.
Membro: Maria Cristina Ferreira de Oliveira.

2017

1.   2017-2017. Aplicações Web Interativas - avaliação contínua para promover acesso e uso da Internet por todos
Mais do que 50% dos lares brasileiros já possuem acesso à Internet. Pesquisas mostram que o celular ocupa a segunda colocação dentre os dispositivos mais usados para acesso à Web, e novas tecnologias touchscreen (telas sensíveis ao toque) têm ganhado espaço na preferência dos usuários. Muitos trabalhos consideram o design de diferentes características da interface que melhoram a usabilidade de dispositivos touchscreen, considerando o elevado número de erros por interação observado nesses dispositivos. A baixa acurácia que caracteriza esse tipo de interação é, entretanto, um desafio. Dentre as limitações inerentes desse mecanismo de entrada de dados, tem-se o fat finger problem, baixa percepção dos mecanismos de apontamento, dificuldades na seleção de elementos pequenos, entre outros. Adicionalmente, o desenvolvimento de aplicações Web interativas acessíveis e usáveis para dispositivos móveis requer critérios de avaliação específicos. Nesse contexto, este projeto investiga as questões de usabilidade e acessibilidade, com especial atenção aos idosos (pessoas com 60 anos ou mais), ao interagirem com aplicações Web a partir de telas sensíveis ao toque. São pesquisadas as estratégias para apresentação de aplicações Web na Internet a fim de potencializar a qualidade da interação em dispositivos touchscreen. Estudos com usuários idosos serão realizados, para elicitação de suas demandas, e a obtenção de um quadro geral de diretrizes para projetos de aplicações Web interativas acessíveis e usáveis. Essas diretrizes serão também adotadas para o desenvolvimento de um ambiente de avaliação colaborativo, sobre acessibilidade e usabilidade de aplicações Web interativas. Isto visa promover o conhecimento e a participação de todos os interessados.
Membro: Renata Pontin de Mattos Fortes.
2.   2017-2017. Aprendizado de características em sinais, imagens e vídeos com aplicações
Métodos de aprendizado de características, em especial deep learning (aprendizado profundo), têm alcançado o estado da arte em diversas aplicações. Apesar da performance desses modelos, ainda há pouco entendimento sobre seu funcionamento, em particular considerando cenários mais complexos como domínios visuais diferentes e sob condições limitantes de exemplos de treinamento rotulados. Nesse projeto, propomos o uso de aprendizado de características a partir de aplicações ainda pouco exploradas envolvendo sinais, imagens e vídeos. Serão empregadas diversas técnicas de aprendizado de características, cujas representações serão avaliadas por métricas conhecidas e ainda por técnicas de visualização e projeção para a interpretação e análise dos espaços. Os resultados esperados incluem modelos obtidos com menor quantidade de rótulos disponíveis, e cenários multi-domínio que permitam obter avanços no estado da arte nas aplicações.
Membro: Moacir Antonelli Ponti.
3.   2017-2017. Aprendizado de características na recuperação de imagens baseada em rascunhos e no sensoriamento remoto de baixa altitude
Métodos de aprendizado de características têm alcançado o estado da arte em diversas áreas. Apesar dos resultados excelentes obtidos em conjuntos de dados benchmark, ainda há pouco entendimento sobre seu funcionamento, e aplicações ainda a serem exploradas, em particular quando se considera arquiteturas que vão além das redes neurais convolucionais padrão. Nesse projeto, propomos o uso de aprendizado de características a partir de aplicações como a análise de imagens de sensoriamento remoto de baixa altitude para agricultura de precisão, e no mapeamento dos domínios rascunho e imagens, com foco na recuperação de imagens baseada em rascunhos. Cada uma dessas tarefas tem seus próprios desafios, mas em comum há o limite de dados rotulados disponível para treinamento. Esses desafios podem ser resolvidos utilizando aprendizado profundo desenvolvendo novas arquiteturas baseadas em auto-encoders, redes siamesas e modelos geradores. Propõe-se avaliar os modelos utilizando não apenas os dados benchmark, mas também avaliar a qualidade das representações por meio de técnicas de visualização e projeção como forma de análise dos espaços de características.
Membro: Moacir Antonelli Ponti.
4.   2017-2017. Armadilhas e Sensores Inteligentes: Uma Abordagem Inovadora para Controle de Insetos Peste e Vetores de Doenças
Resumo em Português Indiscutivelmente, os insetos são importantes na agricultura, no meio ambiente e saúde pública. Muitas espécies são benéficas para o meio ambiente e para as pessoas. Por exemplo, insetos são responsáveis pela polinização de ao menos dois terços de todo o alimento consumido no mundo. Devido a esta importância para os seres humanos, o recente declínio nas populações de insetos polinizadores, principalmente as abelhas, é considerado um grave problema ambiental, frequentemente associado ao uso de pesticidas. Por outro lado, pragas agrícolas são responsáveis por destruir mais de 40 bilhões de dólares em alimentos por ano e determinadas espécies são vetores de doenças que matam mais de um milhão de pessoas anualmente, como a malária, dengue, febre chikungunya e zika vírus. Neste projeto de pesquisa, é proposta uma armadilha inteligente para a captura de espécies maléficas de insetos. A armadilha utiliza um sensor óptico que têm sido desenvolvido pela equipe deste projeto nos últimos anos, capaz de reconhecer automaticamente a espécie de insetos a partir de dados do batimento de asas dos insetos. O reconhecimento das espécies de insetos permitirá a criação de mapas de densidade em tempo real, que por sua vez podem ser utilizados para apoiar intervenções locais. Por exemplo, no caso de pragas agrícolas, estes mapas permitirão a aplicação inteligente e direcionada de inseticidas, reduzindo o impacto para o meio ambiente. No caso de insetos vetores de doenças, a armadilha poderá auxiliar na redução dos custos de intervenções sofisticadas e efetivas como a SIT (técnica do inseto estéril), mas que possuem um alto custo. Neste projeto, pretende-se expandir o estado-da-arte em Computação por meio desta aplicação real, especialmente nas áreas de Aprendizado de Máquina e Mineração de Fluxo de Dados. De modo a demonstrar os aspectos práticos desta proposta, as pesquisas serão concentradas na identificação de duas espécies: o psilídio asiático dos citros, vetor da doença de Greening, uma terrível doença que ataca árvores de citros e o Aedes aegypti, vetor da dengue, febre amarela e chikungya, e zika virus, recentemente associado a casos de microcefalia em recém-nascidos.
Membro: Diego Furtado Silva.
5.   2017-2017. Arquitetura E Aplicações Para Robótica Em Ambientes Inteligentes
Este projeto consiste em desenvolver um framework para ambientes inteligentes, no qual além de sensores será inserido um robô humanoide. Este robô deverá receber informação sensorial dos sensores presentes no ambiente, bem como, de celulares das pessoas envolvidas no ambiente, e com base nas informações recebidas, decidir que ações devem ser tomadas.
Membro: Roseli Aparecida Francelin Romero.
6.   2017-2017. FAPESP Temático - Mineração, Indexação e Visualização de Big Data no Contexto de Sistemas de Apoio a Decisão Clínica - (MIVisBD)
Projeto Temático envolvendo 3 instituições nacionais e 8 instituições internacionais.
Membro: Robson Leonardo Ferreira Cordeiro.
7.   2017-2017. Graph-Based Total Recall Information Retrieval on Text Document Corpora
In the real world, textual format is the common way of storing information. Thus automated techniques which help to group, extract topic, and classify textual documents, minimizing the need of human intervention, remain a worthwhile research topic. In this context, the Brazilian and Canadian groups have developed a number of techniques related to network-based text mining, to complement the traditional vector space model for representing textual corpora. More specifically, representing textual collections as networks of terms and documents. Algorithms that use a graph representation have several advantages since a graph representation: (1) avoids sparsity and ensures low memory consumption; (2) enables an optimal description of the topological structure of a dataset and associated operations; (3) provides local and global statistics of the dataset?s structure; and (4) allows extracting patterns which are not extracted by algorithms based on vector-space model [Breve et all, 2012]. By using such representations, a number of techniques has been developed for supervised, unsupervised, and semi-supervised learning by both groups. The Brazilian group?s methods are based on information propagation in bipartite networks and can be applied to different domains. In the textual domains, in which a collection of documents may be represented by document-term bipartite networks, the proposals range from text classification to soft clustering, including semi-supervised classification and topic extraction. The counterpart Canadian team is involved in a major ongoing project on total recall information retrieval (IR) in large noisy text datasets funded by NSERC and Boeing Canada. A different project that received funding from the Digging into Data program until late 2015 and continues under NSERC Discovery grant funding addresses total recall IR on a large corpus of biodiversity heritage text. As a motivating practical problem, this project also aims to expand the functionality and the utility of the Biodiversity Heritage Library (BHL) [BHL], a digital library of over 170 thousand volumes, and 49 million pages of biodiversity literature, dating since the 16th century, openly available to the global biodiversity community. The collaboration between the two teams will aim for novel approaches so that each team can improve their knowledge and usage of strategies, techniques and tools employed by the other, in the context of total recall IR for the BHL corpus. These opportunities will extend to the students working in these topics, who will experience international collaboration and internships at the partner institutions as part of the masters or doctoral projects.
Membro: Alneu de Andrade Lopes.
8.   2017-2017. INCT para Sistemas Autônomos Cooperativos Aplicados em Segurança e Meio Ambiente
This proposal aims the creation of a National Institute of Science and Technology (INCT-SAC) to deal with cooperative autonomous systems. Motivated by Brazil?s large territory and population size, wideranging geographic features, and economic and social issues, we intend to solve problems related to security and environment. This INCT will address some of these challenges by proposing novel networked robotic systems for underwater maintenance, automobile and cargo transportation, grow of crops, remote inspection and actuation, and surveillance. Oil extraction in the pre-salt layer, located 250Km from the coast and more then 2km deep in the ocean, has demanded specific solutions in terms of logistics, maintenance in deep waters, remote operations of platforms, and national security; Urban mobility has been faced with an expressive growing in the number of automobiles in the last years, the Brazilian car fleet is now the 4th in the world. Car manufacturers and robotics researchers have been interested in partial or full automation of vehicles navigation systems; In terms of Amazon rainforest and agriculture, Brazil has two important and complementary objectives in terms of preservation and to increase crop productivity. Advances in communication, computing, and embedded control technologies allow the application of networked systems to large environmental monitoring and coordination of multiple mobile agents for exploration and manipulation. The proposed INCT will bring together an outstanding set of Universities, Industries, and Research Institutes of Brazil and abroad. The latest advances in systems theory and emerging information technology to enable the design and implementation of distributed networks for observation, mobility, and manipulation provide the fundamental scope of actual problems we intend to solve. Specifically, this proposal will consider autonomous navigation of aerial vehicles in low altitude to deal, for instance, with power transmission line and gas pipe inspection to alleviate the pilot?s workload and with motion planning strategies for aggressive landing of an actual cargo transportation helicopter in a mobile platform; Robotic systems based on lighter-than-air vehicles for environmental monitoring, surveillance and communication applied to the Amazon region. They will provide a virtual sensory barriers against deforestation, telecommunication services to remote and small population areas, technological solutions to coastal communities and remote settlements; Modeling and design of autonomous heavy vehicles with on-line payload measurement system. Advanced driver assistance systems will be developed to deal with safety, congestion and traffic cooperation, and with overloading freight transportation; Coordination of heterogeneous aerial and mobile robots in outdoor environment to deal with helicopters and convoy of trucks based on fault tolerant control systems; Coordination of heterogeneous robots applied to orange plantation monitoring. This project aims to estimate the amount of fruits, pest detection, the rate of development and degree of maturity of the plants; Modeling and design of distributed underwater vehicles for inspection and service of industrial installations. They will deal with servicing, repair, and assembly tasks of oil and gas platforms. Basic development for autonomous and fault tolerant control systems. It will be related with development of control techniques for systems under stochastic variations in its dynamics, with the development of measurement based approach to engineering design and techniques for system identification, and with control of small robots described by swarms of insects which will be performed based on bio-inspired systems.
Membro: Roseli Aparecida Francelin Romero.
9.   2017-2017. Informática Básica para Terceira Idade - 5a. edição

Membro: Marcelo Garcia Manzato.
10.   2017-2017. Intelligent Traps and Sensors: an Innovative Approach to Control Insect Pests and Disease Vectors

Membro: Gustavo Enrique de Almeida Prado Alves Batista.
11.   2017-2017. Letramento digital e intervenção programada remota a idosos por meio do uso de dispositivos móveis
Na era digital faz-se importante construir estratégias educacionais para preparar pessoas idosas a lidar com recursos tecnológicos e promover sua inclusão digital. O ESPIM ? Experience Sampling and Programmed Intervention Method ? é um sistema computacional que permite realizar a autoria de programas interventivos e o monitoramento de usuários idosos quanto ao uso e desempenho de dispositivos móveis. O presente projeto pretende estimular e monitorar o uso de dispositivos móveis ? smartphones e tablets ? e avaliar o desempenho de usuários idosos, por meio do sistema ESPIM. Participarão cerca de 240 idosos (60 anos de idade e mais) matriculados em projetos de inclusão digital do programa Universidade Aberta à Terceira Idade da Universidade de São Paulo da Escola de Artes, Ciências e Humanidades e no Instituto de Ciências Matemáticas e de Computação de São Carlos, ao longo de quatro semestres. A intervenção toma como base o ESPIM que combina enquanto método a) técnicas de ESM; b) procedimentos selecionados de Programação de Ensino; e c) Computação Ubíqua para aumentar a efetividade da coleta de dados em ambiente natural. Com base nas informações coletadas acerca do desempenho com os dispositivos móveis e aplicativos de interesse será possível traçar novas estratégias de ensino-aprendizagem e sanar dificuldades quanto à usabilidade por usuários idosos. Os dados coletados serão analisados em termos de desempenho e autoeficácia por meio de análises descritivas e testes estatísticos apropriados de acordo com as propriedades da amostra. Espera-se como principais resultados: 1) estimular o uso de dispositivos móveis em ambiente natural por idosos; 2) promover avaliações mais positivas de autoeficácia quanto ao uso dos mesmos; 3) promover efetivo letramento digital dos idosos; 4) validar o ESPIM para intervenções de letramento digital em pessoas idosas. Palavras-Chave: dispositivos móveis, ESPIM, idosos, intervenção programada, letramento digital
Membro: Kamila Rios da Hora Rodrigues.
12.   2017-2017. Mineração de Dados e Textos para Aquisição de Informação Contextual para Sistemas de Recomendação Sensíveis ao Contexto
As empresas que tratam seus negócios na Web oferecem uma vasta quantidade e variedade de conteúdos Web (isto é, produtos, serviços e informações). Estas empresas sentem a necessidade de descobrir informações sobre o comportamento e interesse de seus usuários para poder recomendar a estes os produtos, serviços e informações que lhes são relevantes. Porém, o comportamento e interesse de um usuário são constantemente influenciados pelo contexto no qual este se encontra. Por exemplo, um usuário pode desejar assistir um filme com a sua namorada no sábado à noite ou com os seus amigos durante um dia de semana, e uma locadora de filmes na Web pode recomendar diferentes tipos de filmes para este usuário dependendo do contexto no qual este se encontra. Um grande desafio para o uso de sistemas de recomendação sensíveis ao contexto por sítios Web é a falta de métodos para aquisição automática de informação contextual para estes sistemas. Diante desse cenário, o objetivo deste projeto é a pesquisa, proposta e avaliação de métodos de aquisição de informação contextual para sistemas de recomendação de contéudo Web sensíveis ao contexto.
Membro: Marcelo Garcia Manzato.
13.   2017-2017. MINERAÇÃO DE DADOS E TEXTOS PARA AQUISIÇÃO DE INFORMAÇÃO CONTEXTUAL PARA SISTEMAS DE RECOMENDAÇÃO SENSÍVEIS AO CONTEXTO
As empresas que tratam seus negócios na Web oferecem uma vasta quantidade e variedade de conteúdos Web (isto é, produtos, serviços e informações). Estas empresas sentem a necessidade de descobrir informações sobre o comportamento e interesse de seus usuários para poder recomendar a estes os produtos, serviços e informações que lhes são relevantes. Porém, o comportamento e interesse de um usuário são constantemente influenciados pelo contexto no qual este se encontra. Por exemplo, um usuário pode desejar assistir um filme com a sua namorada no sábado à noite ou com os seus amigos durante um dia de semana, e uma locadora de filmes na Web pode recomendar diferentes tipos de filmes para este usuário dependendo do contexto no qual este se encontra. Um grande desafio para o uso de sistemas de recomendação sensíveis ao contexto por sítios Web é a falta de métodos para aquisição automática de informação contextual para estes sistemas. Diante desse cenário, o objetivo deste projeto é a pesquisa, proposta e avaliação de métodos de aquisição de informação contextual para sistemas de recomendação de contéudo Web sensíveis ao contexto.
Membro: Solange Oliveira Rezende.
14.   2017-2017. Mineração de Dados para Predição de Evasão em Ambientes de Ensino a Distância
Estratégias de combate à evasão no ensino superior têm recebido grande atenção nos últimos anos. As estratégias tradicionais são baseadas na revisão dos projetos pedagógicos dos cursos, além da implantação de políticas de assistência estudantil, como apoio financeiro e psicológico aos alunos. O uso destas estratégias tradicionais é mais desafiador quando o principal meio de interação com os alunos é pelo ambiente computacional EAD. No entanto, esses ambientes armazenam um rico conjunto de dados que refletem o comportamento dos alunos, desde o registro de acesso e tempo utilizado nos recursos didáticos, atividades de avaliação, até a interação do aluno em fóruns de discussão. Métodos para Mineração de Dados são promissores para extrair conhecimento útil desses dados e, assim, apoiar processos de tomada de decisão. Assim, o objetivo deste projeto é desenvolver uma plataforma de Mineração de Dados com foco na predição de evasão para o sistema UAB. Na etapa de extração de conhecimento da plataforma, serão desenvolvidos algoritmos de aprendizado de modelos preditivos, ou seja, que identificam padrões nos dados históricos dos perfis de alunos desistentes; sendo capaz de predizer se um novo perfil entrou no grupo de risco da evasão. Como resultado, a plataforma será distribuída livremente, permitindo integrar com qualquer ambiente EAD.
Membro: Ricardo Marcondes Marcacini.
Estratégias de combate à evasão no ensino superior têm recebido grande atenção nos últimos anos. As estratégias tradicionais são baseadas na revisão dos projetos pedagógicos dos cursos, além da implantação de políticas de assistência estudantil, como apoio financeiro e psicológico aos alunos. O uso destas estratégias tradicionais é mais desafiador quando o principal meio de interação com os alunos é pelo ambiente computacional EAD. No entanto, esses ambientes armazenam um rico conjunto de dados que refletem o comportamento dos alunos, desde o registro de acesso e tempo utilizado nos recursos didáticos, atividades de avaliação, até a interação do aluno em fóruns de discussão. Métodos para Mineração de Dados são promissores para extrair conhecimento útil desses dados e, assim, apoiar processos de tomada de decisão. Assim, o objetivo deste projeto é desenvolver uma plataforma de Mineração de Dados com foco na predição de evasão para o sistema UAB. Na etapa de extração de conhecimento da plataforma, serão desenvolvidos algoritmos de aprendizado de modelos preditivos, ou seja, que identificam padrões nos dados históricos dos perfis de alunos desistentes; sendo capaz de predizer se um novo perfil entrou no grupo de risco da evasão. Como resultado, a plataforma será distribuída livremente, permitindo integrar com qualquer ambiente EAD
Membro: Solange Oliveira Rezende.
15.   2017-2017. Mining, Indexing and Visualizing Big Data in Clinical Decision Support Systems (MIVisBD)
Projeto Temático envolvendo 3 instituições nacionais e 8 instituições internacionais.
Membro: Solange Oliveira Rezende.
Projeto Temático envolvendo 3 instituições nacionais e 8 instituições internacionais.
Membro: Caetano Traina Junior.
Projeto Temático envolvendo 3 instituições nacionais e 8 instituições internacionais.
Membro: Agma Juci Machado Traina.
16.   2017-2017. Modelling citation and information graphs: a complex network approach
Citation and information networks have been extensively studied along the past years.While much insight has been obtained from particular topological attributes (e.g. degree distribution and cycles), no large scale study has been conducted on the effects of including additional metadata information to improve the characterization of such systems. In this context, this project aims at investigating how metadata information obtained from collaboration, geographical and information networks can be used to improve the characterization of citation networks. Upon intertwining text analysis and network theory, we also intend to provide an improved characterization of the interdisciplinarity of papers and concepts inside research subfields. In addition to providing a better understanding of the underlying processes driving the organization of citation networks, we expect to unravel novel features that are able to predict the future impact of papers, given their initial configuration in citation and information networks.
Membro: Diego Raphael Amancio.
17.   2017-2017. Organização Semântica de Anotações Colaborativas de Usuários Aplicada em Sistemas de Recomendação
Sistemas de recomendação surgiram com o objetivo de selecionar e apresentar conteúdo de acordo com as preferências dos usuários, reduzindo, assim, o problema da sobrecarga de informação. Dentre as técnicas disponíveis, as mais conhecidas são a filtragem colaborativa e a baseada em conteúdo. Adicionalmente, há atualmente uma tendência em utilizar informações fornecidas colaborativamente pelos usuários, como etiquetas, revisões, comentários e interações, a fim de reduzir problemas comuns em recomendação, como a sobre-especialização, partida fira e análise limitada de conteúdo. Entretanto, essas anotações podem conter ruído, ironia e ambiguidade, além de estarem em uma forma não padronizada e desestruturada. Além disso, falta uma organização semântica nos dados de modo que seja possível inferir automaticamente o significado dos conceitos relacionados. Deste modo, este projeto tem como objetivo investigar métodos de como utilizar anotações produzidas colaborativamente pelos usuários para descrever de maneira semântica as entidades envolvidas em sistemas de recomendação. A fim de reduzir problemas inerentes à utilização de dados não-estruturados, pretende-se desenvolver um método que aplica diferentes técnicas de extração de características, análise de sentimento e aprendizado de máquina para se obter uma versão rica e padronizada semanticamente sobre os itens e sobre as preferências dos usuários.
Membro: Marcelo Garcia Manzato.
18.   2017-2017. Using semantical information to classify texts modelled as complex networks
Complex networks have been used to model many complex systems, owing to its versatility to represent systems as an association of nodes. Even though network science has already been used to analyze written texts in recent years, the majority of works exploring topological information of networks have emphasized only the stylistic/structural properties of documents. Here, we propose an extension of traditional models to grasp semantic aspects of texts. Examples of proposed enhancements include the representation of texts in a multi-scale fashion, where nodes may represent words, sentence, paragraphs, set of paragraphs, etc. We also intend to improve the semantical characterization of texts by including semantical links. To do so, we intend to implement recent advances in textual similarity research, which includes vectorial representations of words using word embeddings. In this context, we plan to tackle two tasks related to text classification, namely topic segmentation and multi-document extractive summarization. To address these natural language processing tasks, modifications in community detection methods and multi-layer models are proposed as the main tools designed to include semantical information in traditional representations. Owing to the generality of the proposed methods, we believe that the tools proposed here could be easily extended to analyze similar natural language processing tasks.
Membro: Diego Raphael Amancio.
19.   2017-2017. Visual analytics: aplicações e uma investigação conceitual (FAPESP 2017/05838-3
A pesquisa em Visual Analytics é central no tratamento dos desafios associados à análise de dados e computação intensiva em dados, pelo potencial de combinar técnicas de Aprendizado de Máquina e de Visualização para apoiar a interpretação de dados complexos. O acoplamento de técnicas oriundas de ambas as áreas pode promover avanços significativos na capacidade humana de análise de dados, pois permite a indivíduo e computador assumirem papeis complementares ao tratar os muitos problemas introduzidos pelo volume e complexidade dos conjuntos de dados gerados em diversos domínios de aplicação. Este projeto de pesquisa aborda dois focos distintos em visual analytics, um de natureza aplicada e outro de natureza conceitual. No aspecto aplicado serão considerados (i) o problema de visualização de redes de grande escala, com ênfase em redes sociais; e (ii) o problema da análise exploratória de espaços de atributos que caracterizam fenômenos multivariados e variantes no tempo -- por exemplo, resultantes de sensores utilizados para monitoramento ambiental em diversos domínios. Em ambos os casos, a busca por soluções escaláveis para grandes volumes de dados representa um desafio. No aspecto conceitual, dando continuidade a uma colaboração em andamento, iremos conceber e realizar alguns estudos experimentais que contribuam para esclarecer os processos cognitivos subjacentes à interpretação de um tipo particular de visualização multidimensional, os chamados mapas de similaridade. A análise dos resultados pode sugerir modelos conceituais sobre a interpretação desse tipo de mapeamento visual. Esperamos com esse estudo contribuir para ampliar o embasamento conceitual sobre essas técnicas, essencial para futuros avanços na área.
Membro: Maria Cristina Ferreira de Oliveira.

2016

1.   2016-2016. [Microsoft Research] Experimental Evaluation in the Usage of Flash Memories on Spatial Indexing
To efficiently process spatial queries, spatial database systems frequently employ spatial index structures, such as the R-tree and its variants, which consider Hard Disk Drives (HDDs) as the main storage system. However, HDDs have been replaced by flash memories (e.g., Solid-State Drives) due to their positive characteristics, such as faster read and write performance and lower power consumption. However, flash memories have unique characteristics that could deteriorate the performance of spatial index structures, such as asymmetry between read and write operations and erase-before-update property. In this project, we aim to investigate the impact of employing spatial index structures in flash memories. We intend to extensively study spatial index structures in flash memories and propose guidelines and research venues based on this study. We also aim to propose a new spatial index structure that considers the unique characteristics of flash memories, thus improving spatial query processing.
Membro: Cristina Dutra de Aguiar.
2.   2016-2016. An Intelligent Trap and Mobile Application to Motivate Local Mosquito Control Activities
In the last years we have witnessed a tremendous increase of dengue fever cases followed by the appearance of zika and chikungunya fevers. All these diseases have in common the Aedes aegypti mosquito as the main vector. The Aedes aegypti is highly adapted to urban conditions and its resilience to insecticides has made unilateral governmental mosquito control activities ineffective. The control of the mosquito is only possible with the joint effort of organizations, governments and the active participation of the population. In this project, we propose an innovative approach for community engagement and vector control. Our idea is to propose an inexpensive intelligent trap that will empower the population with the knowledge of Aedes aegypti densities. Such a trap will make use of mobile devices to educate the population about proper mosquito control activities as well as evaluate the effectives of these activities based on the number of captured mosquitoes.
Membro: Gustavo Enrique de Almeida Prado Alves Batista.
3.   2016-2016. Aprendizado não Supervisionado de Websensors aplicado em Desafios de Big Data para Agronegócios
Motivada pela diversidade de aplicações que podem ser derivadas por meio de algoritmos para extração de conhecimento da web, uma nova direção de pesquisa denominada Websensors tem como objetivo converter padrões extraídos de várias fontes da web em um conjunto de sinais, representado por meio de séries temporais, que permitem observar, estudar e monitorar o comportamento de um fenômeno de interesse. Devido ao grande volume de dados, variedade de fontes de informação e requisitos de velocidade para análise desses dados, os websensors são modelos computacionais com grande potencial para lidar com os desafios atuais relacionados à temática de Big Data; que recentemente tem recebido muita atenção na literatura e indústria pelos resultados promissores obtidos na resolução de tarefas complexas de tomadas de decisão. Nesse contexto, entre as atividades recentes desenvolvidas pelos membros do GEPIC (Grupo de Estudo e Pesquisa em Inteligência Computacional - UFMS), há um particular interesse em explorar websensors aplicado em desafios de Big Data para o domínio de agronegócios. Atividades prévias, como a coleta e organização de uma base de 14 anos de notícias (composta por milhões de registros) e resultados preliminares tem demonstrado que este é um caminho promissor. Dessa forma, a proposta geral deste projeto é utilizar conhecimento implícito em uma base histórica de milhões notícias sobre agronegócios no Brasil para aprender padrões, ao longo do tempo, que possam ser explorados para explicar o comportamento passado e predizer comportamento futuro no domínio de agronegócios, com apoio de algoritmos de aprendizado não supervisionado de máquina.
Membro: Ricardo Marcondes Marcacini.
Motivada pela diversidade de aplicações que podem ser derivadas por meio de algoritmos para extração de conhecimento da web, uma nova direção de pesquisa denominada Websensors tem como objetivo converter padrões extraídos de várias fontes da web em um conjunto de sinais, representado por meio de séries temporais, que permitem observar, estudar e monitorar o comportamento de um fenômeno de interesse. Devido ao grande volume de dados, variedade de fontes de informação e requisitos de velocidade para análise desses dados, os websensors são modelos computacionais com grande potencial para lidar com os desafios atuais relacionados à temática de Big Data; que recentemente tem recebido muita atenção na literatura e indústria pelos resultados promissores obtidos na resolução de tarefas complexas de tomadas de decisão. Nesse contexto, entre as atividades recentes desenvolvidas pelos membros do GEPIC (Grupo de Estudo e Pesquisa em Inteligência Computacional - UFMS), há um particular interesse em explorar websensors aplicado em desafios de Big Data para o domínio de agronegócios. Atividades prévias, como a coleta e organização de uma base de 14 anos de notícias (composta por milhões de registros) e resultados preliminares tem demonstrado que este é um caminho promissor. Dessa forma, a proposta geral deste projeto é utilizar conhecimento implícito em uma base histórica de milhões notícias sobre agronegócios no Brasil para aprender padrões, ao longo do tempo, que possam ser explorados para explicar o comportamento passado e predizer comportamento futuro no domínio de agronegócios, com apoio de algoritmos de aprendizado não supervisionado de máquina.
Membro: Solange Oliveira Rezende.
4.   2016-2016. Desenvolvimento de Algoritmos e Técnicas Computacionais para Aplicação em Interfaces Cérebro-Computador
Interfaces Cérebro-Computador (Brain-Computer Interfaces - BCI) são uma forma de comunicação que capacita indivíduos incapazes de realizar movimentos a se conectarem a dispositivos auxiliares externos usando a eletroencefalografia (EEG) ou outras técnicas de registro de sinais cerebrais. As BCIs não-invasivas capturam mudanças no fluxo sanguíneo ou flutuações em campos elétricos e magnéticos causados pela atividade de grandes populações de neurônios. A EEG, uma técnica não-invasiva, registra a atividade elétrica do cérebro em diferentes locais da cabeça, geralmente usando eletrodos colocados sobre o couro cabeludo. Com a remoção adequada de artefatos, processamento de sinal e aprendizagem de máquina, o registro da EEG em humanos carrega informações suficientes sobre a intenção de planejamento e execução. Modelos cerebrais com base em neurodinâmica procuram entender e representar as razões pelas quais os neurônios são células excitáveis. A corrente elétrica microscópica de cada neurônio soma-se com as correntes de outros neurônios, o que provoca uma diferença de potencial elétrico macroscópica, medida pela EEG, que registra a atividade dos padrões de populações de neurônios. Isto é, um bom modelo neural deve reproduzir a dinâmica de neurônios, tendo em conta as propriedades dinâmicas de populações de neurônios, além das propriedades eletrofisiológicas de neurônios individuais. O objetivo é mostrar como o entendimento da atividade elétrica do cérebro, medida de forma não invasiva pela EEG, pode fornecer uma maneira para permitir a comunicação sem movimentos musculares. A intenção é, a partir do estudo do comportamento neurodinâmico do cérebro, investigar formas e propor modelos que permitam criar interfaces cérebro-computador não-invasivas. Nas últimas décadas, as BCIs baseadas em EEG têm atraído a atenção de pesquisadores no campo da neurociência, engenharia neural e reabilitação clínica. O plano é usar os dados obtidos através da BCI para analisar os movimentos pré-motores, mudanças no cérebro que ocorrem antes que haja realmente um movimento, e aplicá-los a um tratamento adequado de dispositivos protéticos.
Membro: João Luís Garcia Rosa.
5.   2016-2016. FAPESP Regular - Processamento analítico de grandes grafos: identificação de padrões para o suporte à decisão na Web 2.0
A tecnologia computacional do século XXI, caracterizada pela Web 2.0, propiciou poderosos recursos para geração de conteúdo digital, para o acesso generalizado à informação, e para a crescente conexão entre sistemas, pessoas e, recentemente, qualquer dispositivo eletrônico. Essa tecnologia leva à produção de dados a partir de fontes de diversos aspectos de nossa vida em uma escala inédita, a qual tem recebido diversas denominações como Big Data, escala Web, escala planetária ou dados massivos. Muitos desses dados descrevem relacionamentos que são adequadamente representados como grafos, os quais permitem tarefas analíticas que ajudam na otimização de processos como políticas públicas, decisões comerciais, segurança, medicina, e o suporte à decisão orientada a domínio. Para se analisar tais grafos tem-se usado de técnicas de processamento distribuído que adicionam complexidade e custo extra, o qual, muitas vezes, é proibitivo; tornando-se desejável o processamento de grafos em larga escala em um único nó computacional. Neste trabalho, propõe-se o desenvolvimento de técnicas de processamento em bloco para um único nó computacional, explorando-se as vertentes de pré-processamento, projeto de algoritmos, e visualização. Com estas técnicas pretende-se suprir as necessidades computacionais atuais e futuras, provendo processamento otimizado para problemas ligados à análise de grafos.
Membro: Robson Leonardo Ferreira Cordeiro.
6.   2016-2016. Ferramenta de monitoramento de níveis de fragilidade em idosos atendidos na atenção básica de saúde: avaliação da sua efetividade e eficiência
A Atenção Básica de Saúde (ABS) pode oferecer atendimento integral ao idoso a partir da identificação das necessidades especificas de idosos não frágeis, pré frágeis e frágeis. Entretanto, ferramentas que facilitem as ações efetivas dessas políticas são escassas no planejamento e monitoramento das condições de fragilidade dos idosos usuários no Sistema Único de Saúde (SUS). Um sistema de monitoramento computacional a ser utilizado pela equipe de saúde para identificar os níveis de fragilidade de idosos pode colaborar na tomada de decisões, na gestão do cuidado dos idosos, e ainda, pode servir como modelo para outras unidades de saúde brasileiras. Este estudo é uma continuação de um estudo anterior intitulado: "Ferramenta para monitoramento de níveis de fragilidade e fatores associados em idosos atendidos pelo núcleo de apoio a saúde da família (NASF) no município de São Carlos". A primeira fase do projeto foi finalizada com sucesso e avaliou 346 idosos cadastrados na ABS de uma região de alta vulnerabilidade do município. Foram avaliados diversos aspectos relacionados à fragilidade e realizados exames clínicos completos, inclusive com a medida de citocinas inflamatórias. Em seguida, a partir dos resultados encontrados, uma ferramenta foi criada a partir de um algoritmo com intuito de direcionar o atendimento dos idosos de acordo com os níveis de fragilidade (não frágeis, pré-frágeis e frágeis). Nesta nova fase, o objetivo é avaliar a usabilidade, efetividade e eficiência desta ferramenta computacional para monitoramento de níveis de fragilidade em idosos. Para isso, através de métodos quantitativos e qualitativos, a ferramenta será aprimorada e em seguida a equipe de saúde da ABS será treinada para o uso da mesma. Serão monitorados acessibilidade e usabilidade por meio de data loggers, uso dos serviços de saúde pelos idosos e um acompanhamento frequente da tomada de decisões desses profissionais a partir do diagnóstico de fragilidade será realizado. Além disso, os idosos serão reavaliados através da ferramenta e de questionários, realizando-se uma validade cruzada para identificação de eficiência da ferramenta. Espera-se que a ferramenta seja efetiva, eficiente e acessível na detecção de níveis de fragilidade em idosos da ABS.
Membro: Moacir Antonelli Ponti.
7.   2016-2016. Informática Básica para Terceira Idade - 2a. edição

Membro: Marcelo Garcia Manzato.
8.   2016-2016. Método e infraestrutura para captura ubíqua e intervenção programada de experiências: proposta via estudos de caso
O projeto de pesquisa ora proposto tem como objetivo modelaro "Experience Sampling and Programmed Intervention Method" (ESPIM). O método combina técnicas do "Experience Sampling Method" (ESM), de computação ubíqua, de engenharia de documentos e de multimídia, bem como procedimentos selecionados de Programação de Ensino Individualizada, para planejamento, autoria e aplicação de programas de intervenção. O método será modelado a partir da aplicação das teorias associadas a ESM e a instrução programada para definir melhores planejamentos de programas de intervenção, e a técnicas e recursos de computação ubíqua, como informações de contexto e dispositivos móveis, para implementação das intervenções ou parte delas. Para definição e evolução do método serão construídas iterativamente, em colaboração com pesquisadores especialistas dos domínios de saúde e educação, uma infraestrutura de software que permita sua aplicação. Para validação do método serão realizados estudos de caso em temas de gerontologia, terapia ocupacional e educação.
Membro: Kamila Rios da Hora Rodrigues.
O projeto de pesquisa ora proposto tem como objetivo modelaro "Experience Sampling and Programmed Intervention Method" (ESPIM). O método combina técnicas do "Experience Sampling Method" (ESM), de computação ubíqua, de engenharia de documentos e de multimídia, bem como procedimentos selecionados de Programação de Ensino Individualizada, para planejamento, autoria e aplicação de programas de intervenção. O método será modelado a partir da aplicação das teorias associadas a ESM e a instrução programada para definir melhores planejamentos de programas de intervenção, e a técnicas e recursos de computação ubíqua, como informações de contexto e dispositivos móveis, para implementação das intervenções ou parte delas. Para definição e evolução do método serão construídas iterativamente, em colaboração com pesquisadores especialistas dos domínios de saúde e educação, uma infraestrutura de software que permita sua aplicação. Para validação do método serão realizados estudos de caso em temas de gerontologia, terapia ocupacional e educação.
Membro: Maria da Graca Campos Pimentel.
9.   2016-2016. Operação Natal

Membro: Solange Oliveira Rezende.
10.   2016-2016. Otimização de reconstrução do espaço-fase de séries temporais
O aumento na quantidade de dados oriundos das mais diversas fontes tem tornado cada vez mais complexa sua análise e processamento, dificultando a busca por padrões, tendências e ciclos. Dentre os tipos de dados analisados, tem-se especial atenção para com aqueles coletados ao longo do tempo, comumente organizados na forma de séries temporais. Esses dados são provenientes de diferentes fenômenos, sejam eles naturais ou produzidos pela intervenção humana, como temperaturas em uma região do planeta, crescimento populacional ou dados Web. Neste contexto, ferramentas propõem a decomposição de tais séries em componentes estocásticos e determinísticos, a fim de obter modelos mais representativos para ambas partes e permitir análises de maior qualidade. Para dados predominantemente determinísticos, o ramo de Sistemas Dinâmicos propõe a reconstrução do espaço-fase da série temporal, com o objetivo de aplicar uma regressão e obter a regra ou função geradora dos dados. No entanto, métodos atuais para a obtenção do espaço-fase não são confiáveis e robustos para dados ruidosos e/ou caóticos, necessitando de supervisão humana. Esta lacuna motivou o desenvolvimento deste plano de pesquisa de doutorado, que visa projetar um método capaz de estimar, com maior qualidade e robustez, os parâmetros necessários para a reconstrução de um espaço-fase adequado aos dados coletados. Espera-se que tal método seja aplicado tanto sobre dados em lote quanto sobre aqueles continuamente obtidos ao longo do tempo.
Membro: Rodrigo Fernandes de Mello.
11.   2016-2016. Projeto Repasse
O objetivo do Repasse é ser uma ferramenta para visualização das transferências do governo federal para a sua cidade e possibilitar a análise do impacto destas receitas. Trata-se de uma ferramenta para auditar o uso do dinheiro público.
Membro: José Fernando Rodrigues Júnior.
12.   2016-2016. Reconhecimento de forrageiras do bioma Pampa por meio de análise de textura
Embora haja uma crescente preocupação em preservar a biodiversidade dos campos sulinos, a má prática do manejo das pastagens têm favorecido a infestação de espécies exóticas (que não pertencem à flora nativa local). Dentre essas espécies destaca-se a Eragrostis plana Nees, popularmente conhecida como capim-annoni. A preferência dos animais por vegetação nativa ao capim-annoni resulta na prática do pastejo seletivo e intenso. Esta, dentre outras atividades, favorece a remoção da cobertura vegetal original do Pampa e a germinação da plântula invasora. Este projeto tem por objetivo implementar técnicas de processamento de imagens capazes de identificar por meio de monitoramento remoto, a presença de capim-annoni em áreas de partejo
Membro: João do Espirito Santo Batista Neto.

2015

1.   2015-2015. [Microsoft Research] Proposing Agile Star-Join Strategies for Decision Making
Star schema represents a fundamental data organization underlying the major decision-making systems, especially for Data Warehouses and Online Analytical Processing. Yet, these systems do not fit into this new Big Data scenario. In this project, we want to thoroughly investigate options to solve star joins on Azure environment. We recently observed that the bottleneck of current MapReduce strategies are in hard-drive access and IO communication, which can be reduced by switching to Apache Spark. By extensively studying these strategies, we want to propose guidelines and research venues for solving star joins and improve decision-making processes based on the Cloud.
Membro: Cristina Dutra de Aguiar.
2.   2015-2015. Abordagem estável para garantir a detecção de mudanças de conceito em fluxos de dados
Diversos processos industriais, científicos e comerciais produzem dados continuamente, em grande volume e em alta velocidade, denominados fluxos de dados. Na área de Aprendizado de Máquina são realizadas pesquisas para modelar e analisar o comportamento desses fluxos, a fim de compreender o fenômeno que os produziu. Em diversos cenários, esses fluxos de dados alteram seus comportamentos ao longo do tempo, o que são tidos na literatura como mudanças de conceito. É de grande importância detectar essas mudanças, pois elas permitem compreender melhor o fenômeno em estudo. Muitos trabalhos realizam essa tarefa supondo que (i) os dados são rotulados e/ou (ii) desconsiderando as relações temporais na produção dos dados - suposições difíceis de serem afirmadas sobre fluxos de dados. Este plano de pesquisa propõe um método para detectar mudanças de conceito em fluxos de dados não rotulados, considerando a dependência temporal intrínseca às observações que compõem tais conjuntos. Inicialmente os dados do fluxo serão organizados em janelas ou trechos consecutivos ao longo do tempo. Cada janela será decomposta em seus componentes estocástico e determinístico por meio dos métodos Empirical Mode Decomposition e Recurrence Quantification Analysis, sendo então modelados com o propósito de remover dependências temporais entre os dados. Em seguida, por meio de um algoritmo de agrupamento de dados estável, cada janela será agrupada, produzindo dendrogramas. Por fim, esses dendrogramas serão comparados por meio da distância de Gromov-Hausdorff com o intuito de identificar as divergências entre essas janelas consecutivas de dados, evidenciando mudanças de conceito.
Membro: Rodrigo Fernandes de Mello.
3.   2015-2015. AgroComputing.net ? Digital Infrastructure and Novel Computational Methods for Analyzing and Mining Climate and Remote Sensing Large Databases to improve Agricultural Monitoring and Forecasting
This project aims at developing a computational platform to integrate climatic and remote sensor data obtained from several databases; and to propose computational methods to consist data, to fill absent data in the series, to identify new and useful patterns in order to improve the agricultural yield monitoring and forecasting models. The challenge for Computer Science comprehends the development of new algorithms to process, store, mine and analyze vast volumes of data (big data), as well as to propose a mechanism to provide autonomy for agricultural meteorologists to the access and parameterize datasets, to define new research needs, and to reformulate, intercompare and integrate agroenvironmental models. On the other hand, the scientific advance in Agrometeorology depends on a consistent, reliable and complete climatic database with spatial and temporal density (regular grades) for all country in order to generate models that can better support decisions in the agricultural business. Considering the climate change scenarios, the integration between computer scientists and agrometeorologists becomes essential, especially due to the increased amount of data generated by simulations of climate models, and from ground-based meteorological stations and remote sensors. In this context, improving computational methods for visual analytics, data mining, pattern recognition and visualization related to scientific workflow will allow upgrading models to analyze data in the current and future agroclimatic perspective. In an effort to better understand Climate Change and its impact on Agriculture, investigators of Embrapa Agricultural Informatics, ICMC-USP (São Carlos), Cepagri/UNICAMP, CPTEC/INPE, UFSCar, UFABC e UFU have been working together for several years, generating important contributions in both Computer Science and Agrometeorology fields. The validation of results will be done with economically and socially relevant agriculture crops in Brazil, such as sugar cane and coffee. Workshops and a virtual environment will be used to facilitate and support the integration, collaboration and communications among researchers in the project.
Membro: Elaine Parros Machado de Sousa.
4.   2015-2015. ANAA-Dementia: Aplicação de testes neuropsicológicos automatizados para acompanhamento de cidadãos brasileiros durante o percurso de uma vida
O objetivo do projeto é criar um avaliador neuropsicológico pessoal automatizado e acessível pela internet ou por dispositivos móveis, para detectar demências, tais como o comprometimento cognitivo leve (CCL). Esse indicador é considerado o estágio pré-clínico do mal de Alzheimer, em que a doença ainda é reversível.
Membro: Sandra Maria Aluísio.
5.   2015-2015. Análise e Mineração de Redes Sociais
Redes sociais online são plataformas web que refletem as estruturas de redes sociais do mundo real, tais como redes de amizades, profissionais, familiares, entre outras. Nos últimos anos, o estudo das redes sociais tem atraído a atenção da comunidade científica pela sua variedade de aplicações, tais como: sistemas de recomendação de amizade, locais e produtos, sistemas de planejamento de viagens, e social cataloging, que permite aos usuários organizar suas coleções (de livros, músicas, lugares visitados, entre outros) enquanto interagem com outros usuários e anotam suas impressões e recomendações. Algumas dessas redes contém informações de geolocalização dos usuários que abrem portas para uma gama maior ainda de aplicações. Dada a natureza dinâmico-temporal, heterogênea e eventualmente georreferenciada das redes sociais, existem diferentes problemas a serem enfrentados. Este projeto endereça os seguintes problemas 1) formação de novos relacionamentos entre usuários; 2) detecção de comunidades e 3) análise de comportamento de grupos de usuários. O projeto relaciona-se com dois projetos de doutorado e um de mestrado, todos em andamento. Observa-se que grande parte das pesquisas em redes sociais abordam apenas o uso de informações do comportamento do par de usuários analisados ou de sua vizinhança, isto é informações locais. Esperamos neste projeto investigar em profundidade como o comportamento de grupos de usuários, e dados adicionais como geolocalização e temporais em redes heterogêneas impactam no problema de criação de novos relacionamentos e na dinâmica das redes sociais.
Membro: Alneu de Andrade Lopes.
6.   2015-2015. Ações pedagógicas de economia solidária na cidade de São Carlos-SP
O apoio aos Empreendimentos em Economia Solidária (EES) deve considerar aspectos globais da vida dos trabalhadores em Economia Solidária (ES). A partir de ações de educação matemática e também em relação à utilização de recursos tecnológicos entende-se que os agentes associados aos EES, uma vez adquirindo conhecimentos matemáticos e tecnológicos necessários para seus cotidianos de trabalho, terão uma maior compreensão dos processos produtivos nos quais estão inseridos. O processo de apropriação de competências ligadas à autogestão será então fortalecido por tais ações. Nosso maior desafio é exatamente fazê-los motivarem-se quanto à aprendizagem e aplicação da matemática e utilização de tecnologias apropriadas em suas realidades de trabalho, pois muitas vezes as pessoas envolvidas apresentam baixo nível de escolaridade e/ou tiveram em sua vida relações aversivas com o ensino e aprendizagem da matemática, requerendo uma abordagem diferenciada, menos vertical (um professor que ensina a seus alunos) e mais direcionada às necessidades das pessoas dos EES. Para alcançar os objetivos, são propostas inicialmente intervenções informais junto aos associados, sempre pautadas em seu cotidiano de trabalho e a partir de observação participante, de modo que estas se tornem interessantes e prazerosas para eles e, caso haja necessidade, podem ocorrer formações no formato de oficinas pedagógicas com as pessoas dos EES. A partir dos resultados obtidos nas atividades das intervenções que serão realizadas, buscaremos discutir sobre novas formas de ensino-aprendizagem da matemática e de utilização de recursos tecnológicos. Coordenação de projeto submetido ao MEC para o Edital PROEXT 2015 sobre linha temática: AÇÕES PEDAGÓGICAS DE ECONOMIA SOLIDÁRIA DA CIDADE DE SÃO CARLOS-SP , projeto Pré-aprovado em 25 de abril de 2014 pela Pró-Reitoria de Cultura e Extensão da USP. Projeto classificado, bem avaliado, aprovado e contemplado com recurso (resultado divulgado em abril de 2015). Situação: Em andamento; Natureza: Extensão.
Membro: Solange Oliveira Rezende.
7.   2015-2015. Controlling Dengue Fever Mosquitoes using Intelligent Sensors and Traps
In the last decades we have witnessed a tremendous increase of dengue fever cases. Four decades ago only 9 countries had reported severe dengue epidemics. Currently, dengue is endemic in more than 100 countries. In this project we discuss why we are losing the war against dengue and propose a completely different approach for vector control. We propose to further develop our recent research on intelligent sensors to field conditions. Our idea is to propose an inexpensive device that will empower the population with the knowledge of Aedes aegypti densities. This will motivate local mosquito control activities and put the population, governmental and aid organizations far ahead of disease outbreaks.
Membro: Gustavo Enrique de Almeida Prado Alves Batista.
8.   2015-2015. FAPESP Regular - Desenvolvimento de Técnicas para Buscas por Similaridade em Sistemas de Gerenciamento de Bases de Dados Complexos Relacionais
Os Sistemas de Gerenciamento de Bases de Dados (SGBD) baseados na Teoria Relacional foram desenvolvidos para atender às necessidades de armazenagem e recuperação de grandes volumes de dados representados por valores numéricos, datas e pequenas cadeias de caracteres, chamados genericamente ``dados escalares''. Com a evolução da tecnologia da informação, vem se tornando necessário organizar, armazenar e recuperar outros tipos de dados, a que nos referimos como ``dados complexos'', tais como imagens, vídeo, séries temporais, sequências genômicas, etc. As consultas por identidade ou por relação de ordem (RO), úteis para dados escalares, não são adequadas para dados complexos. Para eles, as consultas por similaridade têm sido a opção mais estudada, mas a sua disponibilidade em SGBD é ainda bastante restrita. Este projeto visa abordar a incorporação de recursos para recuperação de dados complexos por similaridade em SGBD Relacionais, desenvolvendo técnicas que cubram de maneira abrangente as principais necessidades dos módulos que constituem um SGBD, incluindo: a) integração da representação de consultas por similaridade em uma extensão da linguagem SQL; b) definição unificada dos operadores algébricos por similaridade segundo a teoria relacional, como operadores interoperáveis com os tradicionais; c) desenvolvimento de técnicas para otimização lógica e física dos planos de execução de consultas, e d:) desenvolvimento de técnicas para indexação e recuperação eficiente combinando operações de busca por similaridade, por identidade e por RO. O conhecimento e a tecnologia gerados poderão ser aplicados a muitas áreas de atividade humana, mas no projeto serão validadas em aplicações de apoio ao diagnóstico em medicina e em estudos de modelos climáticos, dando continuidade às atividades que já vem sendo realizadas pelo GBdI. Assim, além do grande potencial de inovação em tecnologia da informação inerente ao projeto, sua aplicação nessas áreas trará benefícios imediatos a toda a população.
Membro: Robson Leonardo Ferreira Cordeiro.
Os Sistemas de Gerenciamento de Bases de Dados (SGBD) baseados na Teoria Relacional foram desenvolvidos para atender às necessidades de armazenagem e recuperação de grandes volumes de dados representados por valores numéricos, datas e pequenas cadeias de caracteres, chamados genericamente ``dados escalares''. Com a evolução da tecnologia da informação, vem se tornando necessário organizar, armazenar e recuperar outros tipos de dados, a que nos referimos como ``dados complexos'', tais como imagens, vídeo, séries temporais, sequências genômicas, etc. As consultas por identidade ou por relação de ordem (RO), úteis para dados escalares, não são adequadas para dados complexos. Para eles, as consultas por similaridade têm sido a opção mais estudada, mas a sua disponibilidade em SGBD é ainda bastante restrita. Este projeto visa abordar a incorporação de recursos para recuperação de dados complexos por similaridade em SGBD Relacionais, desenvolvendo técnicas que cubram de maneira abrangente as principais necessidades dos módulos que constituem um SGBD, incluindo: a) integração da representação de consultas por similaridade em uma extensão da linguagem SQL; b) definição unificada dos operadores algébricos por similaridade segundo a teoria relacional, como operadores interoperáveis com os tradicionais; c) desenvolvimento de técnicas para otimização lógica e física dos planos de execução de consultas, e d:) desenvolvimento de técnicas para indexação e recuperação eficiente combinando operações de busca por similaridade, por identidade e por RO. O conhecimento e a tecnologia gerados poderão ser aplicados a muitas áreas de atividade humana, mas no projeto serão validadas em aplicações de apoio ao diagnóstico em medicina e em estudos de modelos climáticos, dando continuidade às atividades que já vem sendo realizadas pelo GBdI. Assim, além do grande potencial de inovação em tecnologia da informação inerente ao projeto, sua aplicação nessas áreas trará benefícios imediatos a toda a população.
Membro: José Fernando Rodrigues Júnior.

Membro: Caetano Traina Junior.
Os Sistemas de Gerenciamento de Bases de Dados (SGBD) baseados na Teoria Relacional foram desenvolvidos para atender às necessidades de armazenagem e recuperação de grandes volumes de dados representados por valores numéricos, datas e pequenas cadeias de caracteres, chamados genericamente ``dados escalares''. Com a evolução da tecnologia da informação, vem se tornando necessário organizar, armazenar e recuperar outros tipos de dados, a que nos referimos como ``dados complexos'', tais como imagens, vídeo, séries temporais, sequências genômicas, etc. As consultas por identidade ou por relação de ordem (RO), úteis para dados escalares, não são adequadas para dados complexos. Para eles, as consultas por similaridade têm sido a opção mais estudada, mas a sua disponibilidade em SGBD é ainda bastante restrita. Este projeto visa abordar a incorporação de recursos para recuperação de dados complexos por similaridade em SGBD Relacionais, desenvolvendo técnicas que cubram de maneira abrangente as principais necessidades dos módulos que constituem um SGBD, incluindo: a) integração da representação de consultas por similaridade em uma extensão da linguagem SQL; b) definição unificada dos operadores algébricos por similaridade segundo a teoria relacional, como operadores interoperáveis com os tradicionais; c) desenvolvimento de técnicas para otimização lógica e física dos planos de execução de consultas, e d:) desenvolvimento de técnicas para indexação e recuperação eficiente combinando operações de busca por similaridade, por identidade e por RO. O conhecimento e a tecnologia gerados poderão ser aplicados a muitas áreas de atividade humana, mas no projeto serão validadas em aplicações de apoio ao diagnóstico em medicina e em estudos de modelos climáticos, dando continuidade às atividades que já vem sendo realizadas pelo GBdI. Assim, além do grande potencial de inovação em tecnologia da informação inerente ao projeto, sua aplicação nessas áreas trará benefícios imediatos a toda a população.
Membro: Agma Juci Machado Traina.
9.   2015-2015. Hand tracking for occupational therapy
Collaborative research activity between the University of Surrey and University of Sao Paulo that aims to investigate novel computer vision and multimedia technologies to support occupational therapy (OT) for patients with conditions that affect the motion of their hands and fingers, such as those that have had flexor tendon repair surgery.
Membro: Maria da Graca Campos Pimentel.
10.   2015-2015. Interfaces Cérebro-Computador Não-invasivas baseadas em Eletroencefalograma
Interfaces Cérebro-Computador (Brain-Computer Interfaces - BCI) são uma forma de comunicação que capacita indivíduos incapazes de realizar movimentos a se conectarem a dispositivos auxiliares externos usando o eletroencefalograma (EEG) ou outros sinais cerebrais. As BCIs não-invasivas capturam mudanças no fluxo sanguíneo ou flutuações em campos elétricos e magnéticos causados pela atividade de grandes populações de neurônios. O EEG, uma técnica não-invasiva, mede a atividade elétrica do cérebro em diferentes locais da cabeça, geralmente usando eletrodos colocados sobre o couro cabeludo. Com a remoção adequada de artefatos, processamento de sinal e aprendizagem de máquina, o EEG humano carrega informações suficientes sobre a intenção de planejamento e execução. Modelos cerebrais com base em neurodinâmica procuram entender e representar as razões pelas quais os neurônios são células excitáveis. A corrente elétrica microscópica de cada neurônio soma-se com as correntes de outros neurônios, o que provoca uma diferença de potencial elétrico macroscópica, medida pelo EEG, que registra a atividade mesoscópica dos padrões de populações de neurônios. Isto é, um bom modelo neural deve reproduzir a dinâmica de neurônios, tendo em conta as propriedades dinâmicas de populações de neurónios, além das propriedades eletrofisiológicas de neurônios individuais. O objetivo é mostrar como o entendimento da atividade elétrica do cérebro, medido de forma não invasiva pelo EEG, pode fornecer uma maneira para permitir a comunicação sem movimentos musculares. A intenção é, a partir do estudo do comportamento neurodinâmico do cérebro, investigar formas e propor modelos que permitam criar interfaces cérebro-computador não-invasivas. Nas últimas décadas, as BCIs baseadas em EEG têm atraído a atenção de pesquisadores no campo da neurociência, engenharia neural e reabilitação clínica. O plano é usar os dados obtidos através da BCI para analisar os movimentos pré-motores, mudanças no cérebro que ocorrem antes que haja realmente um movimento, e aplicá-los a um tratamento adequado de dispositivos protéticos.
Membro: João Luís Garcia Rosa.
11.   2015-2015. Jogos Digitais Terapêuticos apoiando no tratamento e bem estar de pacientes com câncer.
Jogos terapêuticos têm sido cada vez mais utilizados por profissionais da saúde para ajudar pacientes durante os tratamentos de reabilitação. Além de apoiar os tratamentos, esses jogos ajudam os pacientes a compreender, se motivar e persistir nas práticas terapêuticas. Em cenários onde pacientes residem no hospital para realizar o tratamento, o jogo pode, além de apoiar na terapia, funcionar como um entretenimento que estimule e motive não só pacientes como também familiares/acompanhantes. O jogo a ser desenvolvido no contexto deste projeto tem como público alvo pacientes diagnosticados com câncer e que residem nos hospitais especializados para realizar o tratamento desta patologia. Espera-se com o jogo, tornar o tratamento de alguma maneira mais leve ao fornecer um recurso de entretenimento para pacientes/familiares e que também possa ser utilizado como instrumento de trabalho para terapeutas.
Membro: Kamila Rios da Hora Rodrigues.
12.   2015-2015. Modelagem e Reconhecimento de Padrões em Textos com Redes Complexas
Complex networks (CN) have been widely employed to model texts. Although some theoretical results have investigated the structural and functional properties of the language via the CN framework, the applicability of the topological analysis of CNs to solve linguistic problems have been restricted to a few studies. The proposed project aims at improving current CN-based models modeling traditional and novel applications. More specifically, we propose the combination of traditional and CN-based techniques based on time series analysis in order to improve the performance of natural language processing tasks, such as the authorship recognition and the disambiguation problems. Upon combining traditional and CN-based techniques in a hybrid way, we expect to generate competitive unsupervised and supervised classifiers. We also expect that the generated models will provide relevant insights into the language functional mechanisms
Membro: Diego Raphael Amancio.
13.   2015-2015. New Empirical Approaches to Understanding InfoVis (FAPESP 15/50083-5)
During our exchange visits we will design and pilot a series of novel experiments on the perception of Information Visualizations (InfoVis) aimed at developing theory in Cognitive Science which in turn might lead to improved methods for InfoVis evaluation. Our work will be focused on the ?similarity map? approaches to InfoVis developed in de Oliveira?s group in Sao Paulo (especially under grant: FAPESP 2011/22749-8 ICMC-USP + IC-UNICAMP), and will extend some evaluative empirical work already undertaken on that project. In addition we will consider comparative studies with alternative representations in which dimensions are not mathematically reduced but rather prioritized by the user. The work will thus inform the ongoing research work in De Oliveira?s project with new insights into relevant psychological processes. At the same time it will build on and elaborate work in Payne?s lab on using InfoVis for sensemaking in Engineering projects (EPSRC Programme Grant), The Language of Collaborative Manufacturing).
Membro: Maria Cristina Ferreira de Oliveira.
14.   2015-2015. Projeto Universal - Descrição analítica de grafos em escala Web utilizando processamento paralelo assíncrono combinado com técnicas de projeção multi-resolução sobre matrizes de adjacência: aplicações sobre a Web 2.0
Os chamados grafos em escala Web (ou escala planetária) possuem milhões de vértices e bilhões de aresta. Tais grafos têm surgido em diversos contextos contemporâneos contendo informações capazes de explicar comportamentos sociais (Twitter e Facebook), hábitos comerciais (Amazon), estruturas de sistemas (como estradas e redes de computadores), informações não estruturadas (como a Wikipedia), organização de informações (como hipertextos), entre muitas outras. Tais grafos são de valor analítico, pois, além de possuírem ampla informação, há uma tendência a se produzirem cada vez mais destes dados nos próximos anos. Por esta razão, torna-se necessário o desenvolvimento e a maestria sobre técnicas capazes de trabalhar com tais informações. Neste trabalho, propõe-se o uso de técnicas de processamento paralelo assíncrono de grafos combinadas com técnicas de projeção multi-resolução sobre matrizes de adjacência para o processamento não distribuído e para a representação visual de grafos em escala Web. O trabalho se baseará na sistemática GraphChi com o objetivo de desenvolver técnicas analítico-visuais que não necessitem de clusters computacionais, mas sim que tornem a visualização de grandes grafos acessível a sistemas comerciais com um único nó de processamento.
Membro: Robson Leonardo Ferreira Cordeiro.
Os chamados grafos em escala Web (ou escala planetária) possuem milhões de vértices e bilhões de aresta. Tais grafos têm surgido em diversos contextos contemporâneos contendo informações capazes de explicar comportamentos sociais (Twitter e Facebook), hábitos comerciais (Amazon), estruturas de sistemas (como estradas e redes de computadores), informações não estruturadas (como a Wikipedia), organização de informações (como hipertextos), entre muitas outras. Tais grafos são de valor analítico, pois, além de possuírem ampla informação, há uma tendência a se produzirem cada vez mais destes dados nos próximos anos. Por esta razão, torna-se necessário o desenvolvimento e a maestria sobre técnicas capazes de trabalhar com tais informações. Neste trabalho, propõe-se o uso de técnicas de processamento paralelo assíncrono de grafos combinadas com técnicas de projeção multi-resolução sobre matrizes de adjacência para o processamento não distribuído e para a representação visual de grafos em escala Web. O trabalho se baseará na sistemática GraphChi com o objetivo de desenvolver técnicas analítico-visuais que não necessitem de clusters computacionais, mas sim que tornem a visualização de grandes grafos acessível a sistemas comerciais com um único nó de processamento.
Membro: José Fernando Rodrigues Júnior.
15.   2015-2015. Sumarização Automática Multidocumento para o Português: Novas Fronteiras
A Sumarização Automática Multidocumento (SAM) visa à criação de um único sumário (ou resumo, como mais comumente chamado) a partir de um conjunto de textos-fonte sobre um mesmo assunto. Com a enorme quantidade de informação disponível atualmente, principalmente on-line, a utilidade desse tipo de recurso é evidente. A SAM começou a ser investigada em meados dos anos 90 para a língua inglesa, e somente mais recentemente, a partir de meados da década passada, ela passou a ser alvo de investigações sistemáticas para a língua portuguesa. Com isso, atualmente há para o português corpora de referência para a SAM, ferramentas básicas de processamento e análise textual, e métodos de sumarização do estado da arte, que resultaram em recursos, ferramentas e aplicações amplamente disponíveis para a comunidade de pesquisa. Neste projeto, objetiva-se dar continuidade a essa linha de pesquisa. Por um lado, visa-se dar continuidade ao desenvolvimento e aprimoramento de recursos linguístico-computacionais e ferramentas de análise textual, que são essenciais para o avanço na área de SAM; por outro, visa-se investigar as novas fronteiras da sumarização, já investigadas para outras línguas e ainda inéditas para o português, em particular, a sumarização de atualização e de opiniões. Na sumarização de atualização, busca-se criar sumários que narrem somente as informações desconhecidas/novas para o leitor, levando-se em conta, portanto, o conhecimento prévio deste; na sumarização de opinião, busca-se sintetizar diversos textos opinativos sobre determinados objetos, como produtos eletrônicos, de forma a apoiar possíveis decisões e avaliações de usuários. Se, na primeira frente, a sumarização de atualização consiste em um desafio metodológico que dá continuidade ao que se tem feito na SAM para o português, na outra frente, tem-se em vista tanto a pesquisa como a aplicação para o usuário final. Acredita-se que, além da formação de recursos humanos e da criação de uma massa crítica de pesquisadores na área, tão pequena no Brasil, esse projeto tem potencial de trazer contribuições significativas para a área como um todo pela proposta de metodologias inovadoras.
Membro: Thiago Alexandre Salgueiro Pardo.
16.   2015-2015. TextLink - Structuring Discourse in Multilingual Europe
Effective discourse in any language is characterized by clear relations between sentences and coherent structure. But languages vary in how relations and structure are signalled. While monolingual dictionaries and grammars can characterise the words and sentences of a language and bilingual dictionaries can do the same between languages, there is nothing similar for discourse. For discourse, however, discourse-annotated corpora are becoming available in individual languages. The TextLink Action will facilitate European multilingualism by (1) identifying and creating a portal into such resources within Europe ?including annotation tools, search tools, and discourse-annotated corpora; (2) delineating the dimensions and properties of discourse annotation across corpora; (3) organising these properties into a sharable taxonomy; (4) encouraging the use of this taxonomy in subsequent discourse annotation and in cross-lingual search and studies of devices that relate and structure discourse; and (5) promoting use of the portal, its resources and sharable taxonomy. With partners from across Europe, TextLink will unify numerous but scattered linguistic resources on discourse structure. With its resources searchable by form and/or meaning and a source of valuable correspondences, TextLink will enhance the experience and performance of human translators, lexicographers, language technology and language learners alike.
Membro: Thiago Alexandre Salgueiro Pardo.
17.   2015-2015. Universidade Aberta da Terceira Idade (cursos práticos)
Curso Práticas com Tablets e Celulares - Modulos bimestrais
Membro: Renata Pontin de Mattos Fortes.
18.   2015-2015. Universidade Aberta à Terceira Idade
Curso Práticas com Tablets e Celulares - Modulo 1 (março-abril/2015) e Modulo 2 (maio-junho/2015)
Membro: Maria da Graca Campos Pimentel.
19.   2015-2015. Uso e apropriação de jogos digitais terapêuticos por parte de jovens dependentes químicos no Hospital Espírita de Marília
Jogos terapêuticos visam apoiar os tratamentos de reabilitação e ajudar os pacientes a compreender, se motivar e persistir nas práticas terapêuticas. Em particular, o público jovem tem facilidade para aderir às soluções de tecnologia e interagir com jogos. Em atividade de extensão realizada em 2014, já com apoio financeiro da Pró-reitoria de Extensão da UFSCar, as fases iniciais do processo de design participativo de um jogo digital terapêutico foram realizadas em conjunto com a equipe de profissionais da saúde e pacientes jovens (14 a 17 anos), internados no Hospital Espírita de Marília. No entanto, esses jovens ainda não foram expostos a um contato permanente com essa tecnologia e, nesse cenário, esta atividade de extensão (edital 2015) tem por objetivo permitir a continuidade do ciclo de design e desenvolvimento do jogo e a avaliação do uso e apropriação dessa tecnologia como forma de aumentar a adesão e o sucesso do tratamento de reabilitação
Membro: Kamila Rios da Hora Rodrigues.

2014

1.   2014-2014. Abordagem baseada na estabilidade de algoritmos de agrupamento de dados para garantir a detecção de mudanças de conceito em fluxos de dados
Resumo em Português Diversos processos industriais, científicos e comerciais produzem dados continuamente, em grande volume e em alta velocidade, denominados fluxos de dados. Na área de Aprendizado de Máquina são realizadas pesquisas para modelar e analisar o comportamento desses fluxos, a fim de compreender o fenômeno que os produziu. Em diversos cenários, esses fluxos de dados alteram seus comportamentos ao longo do tempo, o que são tidos na literatura como mudanças de conceito. É de grande importância detectar essas mudanças, pois elas permitem compreender melhor o fenômeno em estudo. Muitos trabalhos realizam essa tarefa supondo que (i) os dados são rotulados e/ou (ii) desconsiderando as relações temporais na produção dos dados - suposições difíceis de serem afirmadas sobre fluxos de dados. Este plano de pesquisa propõe um método para detectar mudanças de conceito em fluxos de dados não rotulados, considerando a dependência temporal intrínseca às observações que compõem tais conjuntos. Inicialmente os dados do fluxo serão organizados em janelas ou trechos consecutivos ao longo do tempo. Cada janela será decomposta em seus componentes estocástico e determinístico por meio dos métodos Empirical Mode Decomposition e Recurrence Quantification Analysis, sendo então modelados com o propósito de remover dependências temporais entre os dados. Em seguida, por meio de um algoritmo de agrupamento de dados estável, cada janela será agrupada, produzindo dendrogramas. Por fim, esses dendrogramas serão comparados por meio da distância de Gromov-Hausdorff com o intuito de identificar as divergências entre essas janelas consecutivas de dados, evidenciando mudanças de conceito.
Membro: Rodrigo Fernandes de Mello.
2.   2014-2014. AgroComputing.net - Digital Infrastructure and Novel Computational Methods for Analyzing and Mining Climate and Remote Sensing Large Databases to improve Agricultural Monitoring and Forecasting
This project aims at developing a computational platform to integrate climatic and remote sensor data obtained from several databases; and to propose computational methods to consist data, to fill absent data in the series, to identify new and useful patterns in order to improve the agricultural yield monitoring and forecasting models. The challenge for Computer Science comprehends the development of new algorithms to process, store, mine and analyze vast volumes of data (big data), as well as to propose a mechanism to provide autonomy for agricultural meteorologists to access data with parameterized query, to define new research needs, and to reformulate, intercompare and integrate agroenvironmental models. On the other hand, the scientific advance in Agrometeorology depends on a consistent, reliable and complete climatic database with spatial and temporal density (regular grades) for the whole country in order to generate models that can better support decisions in the agricultural business. Considering the climate change scenarios, the integration between computer scientists and agrometeorologists becomes essential, especially due to the increased amount of data generated by simulations of climate models, and from ground-based meteorological stations and remote sensors. In this context, improving computational methods for visual analytics, data mining, pattern recognition and visualization related to scientific workflow will allow upgrading models to analyze data in the current and future agroclimatic perspective. In an effort to better understand Climate Change and its impact on Agriculture, investigators of Embrapa Agricultural Informatics, ICMC-USP (São Carlos), Cepagri/UNICAMP, CPTEC/INPE, UFSCar, UFABC e UFU have been working together for several years, generating important contributions in both Computer Science and Agrometeorology fields. The validation of results will be done with economically and socially relevant agriculture crops in Brazil, such as sugar cane and coffee. Workshops and a virtual environment will be used to facilitate and support the integration, collaboration and communications among researchers in the project.
Membro: Agma Juci Machado Traina.
3.   2014-2014. Aplicações de métodos de visualização de informação em variadas tarefas de classificação
Bolsa de Produtividade em Pesquisa, Nível 1C - Processo CNPq: 305696/2013-0
Membro: Maria Cristina Ferreira de Oliveira.
4.   2014-2014. Aprendizado de Máquina para WebSensors: Algoritmos e Aplicações
A popularização de plataformas web para publicação de conteúdo textual tem motivado o desenvolvimento de métodos para extração automática de conhecimento implícito nos textos. Em particular, uma nova gama de estudos e aplicações tem sido proposta para explorar a web como um grande e poderoso "sensor social", permitindo identificar e monitorar vários tipos de eventos a partir de textos publicados em portais de notícias e redes sociais, como detecção de epidemias, análise de sentimentos, e a extração de indicadores políticos e econômicos. Atualmente, a construção de um sensor da web (websensor) é uma tarefa complexa, pois depende de especialistas de domínio para definição dos parâmetros do sensor, isto é, expressões para busca, filtros e monitoramentos de conteúdo textual da web. A necessidade de especialistas de domínio geralmente limita as aplicações envolvendo websensors, uma vez que em muitos problemas não há compreensão clara dos fenômenos que se deseja monitorar. Em vista disso, neste projeto de pesquisa são investigados métodos de aprendizado de máquina para apoiar a construção automática de websensors. A ideia básica é utilizar uma amostra de documentos textuais do domínio do problema e, em conjunto com algoritmos de aprendizado de máquina semi/não supervisionados, extrair padrões dos textos e assim apoiar a construção de websensors. Dessa forma, espera-se reduzir a dependência de um especialista para definição dos parâmetros dos sensores. Cada websensor aprendido a partir dos textos representa um determinado fenômeno relacionado ao domínio do problema que, então, pode ser monitorado ao longo do tempo e utilizado para apoiar processos de tomada de decisão.
Membro: Diego Furtado Silva.
A popularização de plataformas web para publicação de conteúdo textual tem motivado o desenvolvimento de métodos para extração automática de conhecimento implícito nos textos. Em particular, uma nova gama de estudos e aplicações tem sido proposta para explorar a web como um grande e poderoso "sensor social", permitindo identificar e monitorar vários tipos de eventos a partir de textos publicados em portais de notícias e redes sociais, como detecção de epidemias, análise de sentimentos, e a extração de indicadores políticos e econômicos. Atualmente, a construção de um sensor da web (websensor) é uma tarefa complexa, pois depende de especialistas de domínio para definição dos parâmetros do sensor, isto é, expressões para busca, filtros e monitoramentos de conteúdo textual da web. A necessidade de especialistas de domínio geralmente limita as aplicações envolvendo websensors, uma vez que em muitos problemas não há compreensão clara dos fenômenos que se deseja monitorar. Em vista disso, neste projeto de pesquisa são investigados métodos de aprendizado de máquina para apoiar a construção automática de websensors. A ideia básica é utilizar uma amostra de documentos textuais do domínio do problema e, em conjunto com algoritmos de aprendizado de máquina semi/não supervisionados, extrair padrões dos textos e assim apoiar a construção de websensors. Dessa forma, espera-se reduzir a dependência de um especialista para definição dos parâmetros dos sensores. Cada websensor aprendido a partir dos textos representa um determinado fenômeno relacionado ao domínio do problema que, então, pode ser monitorado ao longo do tempo e utilizado para apoiar processos de tomada de decisão.
Membro: Solange Oliveira Rezende.
5.   2014-2014. Descobrindo a robótica
Descobrindo a robótica na pré-escola: crianças da creche da USP em São Carlos aprendem com robôs. O objetivo é introduzir conceitos de Robótica para crianças de 04 a 06 anos. Este projeto vem sendo desenvolvido na Creche da USP de São Carlos, desde o inicio de 2015. Estamos usando robôs de fácil manuseio para que as crianças possam conhecer as partes que compõem um robô, tais como, sensores, atuadores e além disso, como o modo pelo qual se estabelece interação com um robô..
Membro: Roseli Aparecida Francelin Romero.
6.   2014-2014. Disponibilização de Informações sobre Campanhas Eleitorais em Formato Aberto (Open Data) na Web
O TSE (Tribunal Superior Eleitoral) disponibiliza dados sobre as eleições brasileiras em seu site através do Repositório de Dados Eleitorais. Contudo, esses dados são disponibilizados na forma de planilhas eletrônicas (Excel), não sendo estruturados, com formatos diferentes e contendo erros. Para que seja possível analisar esses dados e tirar conclusões importantes sobre os mesmos, eles precisam estar num formato padrão e conter informações semânticas os descrevendo. Nosso objetivo é ler essas dados, processá-los e disponibilizá-los na Web usando padrões usados para Linked Open Data (Dados Abertos e Conectados) da Web Semântica. Esses dados ficarão disponíveis para análise por pesquisadores (em formato padrão RDF ou através de buscas usando SPARQL, uma linguagem padrão de buscas para Linked Open Data). Será necessário escolher ontologias para descrever os dados, criar um servidor Web e SPARQL (o primeiro para consultas pelo público em geral e o segundo por programas) e disponibilizar os dados nesse servidor. Vale salientar que é importante que os dados do TSE estejam disponíveis em um formato aberto (Open Data) que permita a pesquisadores e ao público em geral o acesso aos mesmos. O volume da dados disponíveis é muito grande e, apenas com ferramentas computacionais de análise e busca, eles são úteis. Mas essas ferramentas só podem ser usadas em dados codificados em formatos padrões e abertos. Dados abertos podem também ser conectados (linked), assim usuários podem conectar esses dados com outras fontes, por exemplo, políticos a empresas ou base eleitoral de políticos ao IDH (Índice de Desenvolvimento Humano) das mesmas, etc.
Membro: Dilvan de Abreu Moreira.
7.   2014-2014. Emprego de ferramentas de Análise de Séries Temporais para modelar e compreender índices de ocorrência de câncer
Diversos sistemas ou fenômenos produzem saídas ou resultados que podem ser coletados ao longo do tempo. Alguns desses fenômenos, particularmente os relacionados à medicina, requerem especial atenção da sociedade atual. Dentre esses fenômenos, há interesse em compreender sob quais condições a ocorrência de determinados tipos de câncer torna-se comum e quais suas relações com demais fatores ou variáveis. Neste contexto, este plano de pesquisa de iniciação científica deve utilizar as ferramentas da àrea de Análise de Séries Temporais para modelar e compreender as relações entre índices de ocorrência de diversos tipos de câncer ao redor do mundo e aspectos da população afetada. Serão considerados os dados disponibilizados pela Associação Internacional de Registros de Câncer (International Association of Cancer Registries). Espera-se, com esse estudo, compreender a natureza desses dados, i.e., se eles apresentam comportamento determinístico ou estocástico e quais suas relações com atributos como raça, gênero, idade, etc.
Membro: Rodrigo Fernandes de Mello.
8.   2014-2014. Explorando Anotações Colaborativas em Sistemas de Recomendação Híbridos
Serviços de recomendação são uma importante ferramenta para lidar com a sobrecarga de informações. Entretanto, um problema comum existente é o conhecimento de informações significativas sobre o conteúdo e sobre as preferências do usuário. A dificuldade de se obter essas informações é chamada de lacuna semântica, e os problemas relacionados têm sido estudados por pesquisadores ao longo dos anos. Por outro lado, com o advento da Web 2.0 e a possibilidade de usuários atuarem como produtores de conteúdo e incrementarem os dados com anotações, novas possibilidades de pesquisa foram criadas para reduzir os efeitos da lacuna semântica. Este plano de pesquisa tem como objetivo investigar alguns dos desafios relacionados com a utilização de anotações colaborativas para melhorar serviços de recomendação. Para isso, propõe-se o desenvolvimento de um modelo unificado de recomendação capaz de analisar as informações produzidas pela interação dos usuários com o sistema, a fim de se obter automaticamente metadados mais ricos sobre o o conteúdo, e também sobre os interesses pessoais dos indivíduos. Como resultados esperados do projeto, destaca-se a integração eficiente de técnicas provenientes de diferentes áreas, como a recuperação de informação, aprendizado de máquina e processamento de linguagem natural, no contexto de sistemas de recomendação.
Membro: Marcelo Garcia Manzato.
9.   2014-2014. Informações Não-Verbais na Interação Humano-Robô Aplicadas a um Robô Recepcionista
A tecnologia robótica está evoluindo de uma situação onde os robôs estavam completamente isolados das pessoas para uma situação na qual robôs e humanos conviverão lado a lado. Podemos citar como exemplo os robôs pessoais, como os robôs de limpeza e robôs "animais de estimação" e também o caso de robôs desenvolvidos especialmente para trabalhar ao lado de pessoas como o Baxter desenvolvido pela empresa Rethink Robotics. A evolução natural da robótica é uma maior aproximação com os seres humanos, na robótica pessoal e na industrial. A robótica pessoal pode suprir robôs para ajudar seres humanos fisicamente, ou até mesmo mentalmente, permitindo uma vida confortável e autônoma. A indústria continuamente integrará humanos com robôs em suas linhas de produção direcionando para um futuro onde robôs e humanos compartilharão o espaço para a realização de tarefas em conjunto. Este cenário de robôs onipresentes demanda o equacionamento de diversos desafios tecnológicos. Parte dos desafios a serem abordados estão em um campo crescente da Robótica conhecido como interação humano-robô; em inglês Human-Robot Interaction (HRI). A presente pesquisa aborda um tema da HRI que é o da Interação Não Verbal Humano-Robô, cujo objetivo é obter informações sobre o estado mental de uma pessoa numa interação a partir de dados obtidos por sensores, que obtêm informações sobre a a postura corporal, expressões faciais, tom de voz e direção de olhar, entre outros, que são aspectos importantes na interação humana no dia a dia. Nesse cenário, o objetivo da pesquisa é integrar ao robô recepcionista desenvolvido pelo Instituto de Robótica da Carnegie Mellon University, além de características brasileiras, a capacidade de interação baseadas em informações não verbais. Uma das potenciais aplicações dos resultados deste trabalho é de aplicações como a triagem de pessoas em atendimento, como por exemplo em postos de saúde. Processo FAPESP no. 2013/26453-1
Membro: Roseli Aparecida Francelin Romero.
10.   2014-2014. Mineração de Imagens e Recuperação Perceptual de Imagens por Conteúdo para Sistemas de Apoio ao Diagnóstico Médico
A proposta deste projeto consiste em promover a aproximação dos sistemas de recuperação de imagens por conteúdo (CBIR) à realidade médica e explorar sua capacidade em Sistemas de Auxílio ao Diagnóstico (Computer-Aided Diagnosis) por imagens integrando essas duas novas abordagens: percepção do especialista e perfil do usuário no processo de recuperação e de mineração de imagens médicas. Para isso, serão disponibilizadas aos sistemas CBIR técnicas e ferramentas que permitam incorporar a perspectiva de análise de imagens e dados do ponto de vista do conhecimento do especialista, diminuindo o gap semântico. A inclusão da percepção do especialista e dos perfis dos usuários na construção de ferramentas CBIR irá aproximar essa tecnologia do especialista médico, quebrando a barreira entre a ciência médica e a ciência da computação.
Membro: Agma Juci Machado Traina.
11.   2014-2014. Modelagem de ruído e segmentação de estruturas em LEEM
A Microscopia Eletrônica de Baixa Energia (do inglês, LEEM) é uma modalidade importante na análise de estruturas de superfície. Por ser uma área ainda incipiente não existem estudos e nem ferramentas que permitam a profissionais da área realizar a segmentação adequada de estruturas (gotículas e ondulações) nos vídeos gerados pela modalidade. O Objetivo deste projeto é entender o processo de formação de imagens LEEM e, posteriormente, modelar matematicamente as diversas fontes de ruído. A partir do modelo, é possível identificar a natureza das diversas fontes de ruídos presentes e propor técnicas de eliminação e filtragem, por meio de restauração ou filtros mais tradicionais. Como consequência, será possível realizar a segmentação automática ou assistida das estruturas de interesse.
Membro: João do Espirito Santo Batista Neto.
12.   2014-2014. Modelos e métodos de e-Science para ciências da vida e agrárias
Projeto coordenado por Roberto Cesar Marcondes Jr. (FAPESP/CNPq - Temáticos - Pronex). Projeto no qual se insere Projeto de Colaboração FAPESP/SPRINT (Brasil-UK) com colaboração de pesquisadores da Universidade de Surrey (Teófilo Campos e Janko Calic) e da USP (Roberto Cesar Marcondes Jr (IME-USP), Valeria Meirelles Carril Elui (FMRP-USP) e Maria da Graça Campos Pimentel (ICMC-USP) no tema "Hand tracking for occupational therapy?
Membro: Maria da Graca Campos Pimentel.
13.   2014-2014. Projeto e desenvolvimento de uma armadilha inteligente para insetos com o objetivo demonstrar seu funcionamento para imprensa e público
Não há dúvidas de que insetos são muito importantes na agricultura e no meio ambiente. Embora os insetos que mais atraiam atenção sejam as pragas agrícolas, muitos insetos são benéficos para o meio ambiente e para os seres humanos. Por exemplo, insetos são responsáveis pela polinização de pelo menos dois terços de todos os alimentos consumidos no mundo. Devido à sua importância para os seres humanos, o recente declínio das populações de insetos polinizadores, especialmente as abelhas, é considerado um grave problema ambiental frequentemente associado à exposição a pesticidas. Acreditamos que pelo uso de tecnologia é possível reduzir a utilização de pesticidas. Para isso, propomos uma armadilha inteligente de baixo custo que captura seletivamente espécies de insetos nocivos, libertando todas as outras espécies. Tal armadilha terá um impacto mínimo sobre o meio ambiente. No cerne da armadilha inteligente encontra-se um novo sensor que estamos desenvolvendo. Este sensor faz uso de uma luz laser para capturar dados de insetos à distância e utiliza técnicas de Aprendizado de Máquina para identificar as espécies de insetos. Neste projeto propomos desenvolver uma armadilha inteligente para fins de demonstração ao público em geral em feiras e para a imprensa. Essa armadilha consiste em três câmaras, a primeira com duas espécies de insetos misturadas, está conectada as outras duas por meio de um tubo. No tubo é instalado o sensor juntamente com uma porta abre-fecha. O sensor irá classificar os insetos em tempo real separando as espécies nas outras duas câmaras. A armadilha deve ser construída em acrílico ou outro material transparente com o objetivo de permitir a visualização de todo o processo de identificação e classificação dos insetos.
Membro: Gustavo Enrique de Almeida Prado Alves Batista.
14.   2014-2014. Projeto Rondon - Operação Guararapes ICMC
Participação como coordenador do Projeto Rondon - Operação Guararapes com a equipe da USP/ICMC Conjunto B: Comunicação, Tecnologia e Produção, Meio Ambiente e Trabalho.
Membro: Moacir Antonelli Ponti.
15.   2014-2014. Real-time Monitoring of Insect Pragues in Agriculture and the Environment
Não há dúvidas de que insetos são muito importantes na agricultura e no meio ambiente. Embora os insetos que mais atraiam atenção sejam as pragas agrícolas, muitos insetos são benéficos para o meio ambiente e para os seres humanos. Por exemplo, insetos são responsáveis pela polinização de pelo menos dois terços de todos os alimentos consumidos no mundo. Devido à sua importância para os seres humanos, o recente declínio das populações de insetos polinizadores, especialmente as abelhas, é considerado um grave problema ambiental frequentemente associado à exposição a pesticidas. Acreditamos que pelo uso de tecnologia é possível reduzir a utilização de pesticidas. Para isso, propomos uma armadilha inteligente de baixo custo que captura seletivamente espécies de insetos nocivos, libertando todas as outras espécies. Tal armadilha terá um impacto mínimo sobre o meio ambiente. No cerne da armadilha inteligente encontra-se um novo sensor que estamos desenvolvendo. Este sensor faz uso de uma luz laser para capturar dados de insetos à distância e utiliza técnicas de Aprendizado de Máquina para identificar as espécies de insetos. Neste projeto propomos desenvolver o sensor e a armadilha inteligente e utilizá-los em uma importante aplicação agrícola, capturando o psilídeo dos citros. Esta praga afeta plantações de laranja e está presente no Brasil e nos Estados Unidos. Descrevemos os desafios científicos e tecnológicos para desenvolver tal armadilha inteligente. Discutimos o nosso plano para desenvolve-la em um prazo de quatro anos a partir do estado atual de desenvolvimento até a realização de experimentos em campo.
Membro: Gustavo Enrique de Almeida Prado Alves Batista.
16.   2014-2014. Tecnologias Assistivas para Moradia e Independência no Envelhecimento
Esse projeto tenta preencher uma lacuna quanto ao desenvolvimento de Tecnologias Assistivas para independência e autonomia no envelhecimento, nomeadamente: validação do uso de um sensor baseado em aceleração para a detecção e a prevenção da queda em idosos e tecnologia em Web 2.0 para dispositivos táteis. Os resultados podem apontar a validade de equipamentos de baixo custo, baixo nível de erro, e boa receptividade possibilitando a geração de produtos que permitam a manutenção da independência do idoso frágil.
Membro: Moacir Antonelli Ponti.
17.   2014-2014. Técnicas fundamentais para Sistemas de Gerenciamento de Bases de Dados Complexos Relacionais
Este projeto trata da incorporação de recursos para recuperação de dados por similaridade em SGBD Relacionais, desenvolvendo técnicas básicas que cubram as principais necessidades dos quatro módulos principais de um SGBD, atendendo às necessidades de armazenagem, recuperação e análise de dados complexos por similaridade de maneira integrada à armazenagem e recuperação de dados escalares, incluindo: - A integração da representação de consultas por similaridade em uma extensão da linguagem SQL; - A definição unificada dos operadores algébricos por similaridade segundo a teoria relacional, como operadores interoperáveis com os tradicionais e a representação interna das consultas atendendo a Álgebra Relacional; - O desenvolvimento de técnicas para otimização lógica e física dos planos de execução de consultas; e - O desenvolvimento de técnicas para indexação e recuperação eficiente em combinações de operações de busca por similaridade, por identidade e por ROT.
Membro: Caetano Traina Junior.
18.   2014-2014. Uma Plataforma para Recomendação Automática de Pontos de Interesse em Cidades Brasileiras: Arquitetura e Projeto Piloto
O projeto consiste na proposta de uma arquitetura e projeto piloto para uma plataforma sensível ao contexto para recomendação de pontos de interesse. Projeto: A075/2013 Validade: 12/2016
Membro: Solange Oliveira Rezende.
19.   2014-2014. USA & REDUZA
Este projeto visa incentivar a economia de água nos municipios da região de São Carlos-SP. Realizado em conjunto com a Diretoria Regional de Ensino da Região de São Carlos e a EPTV, emissora associada da Rede Globo de Televisão. Direcionado para crianças da rede de ensino dos 6os. anos do Ensino Fundamental II. Nossa participação consiste no desenvolvimento de uma plataforma de software para capturar dados mensais de contas de água da família dos alunos participantes, visando detectar a classe que conseguiu uma maior economia de água num periodo de 3 meses de análise.
Membro: Roseli Aparecida Francelin Romero.
20.   2014-2014. Uso de Técnicas de Jogos de Computador para o Ensino Online de Linguagens de Programação
Um dos maiores problemas na área de Educação a Distância é o alto grau de evasão dos alunos. Níveis de evasão de 50% ou mais são comuns. Para diminuir esse problema, técnicas de gamificação começam a ser usadas em cursos à distância ou semipresenciais. Gamificação é atribuir aspectos e características de games para ambientes que não são games. Esse processo visa, através de ações interativas e cativantes, tornar tarefas e demandas difíceis mais prazerosas, práticas e intuitivas para os usuários. Isso pode ser conseguido através do uso de várias técnicas como pontos, distintivos, competições entre usuários, etc. Neste projeto, vamos aplicar técnicas de gamificação num curso de introdução a programação para alunos do primeiro ano universitário. Esse curso já existe e está disponível usando a ferramenta aberta CSM (Course Management System) Moodle em PHP. A ele vamos adicionar ferramentas e atividades voltadas a sua gamificação, com o intuito de tornar o curso mais desafiador e prazeroso aos estudantes (diminuindo assim a evasão).
Membro: Dilvan de Abreu Moreira.
21.   2014-2014. Web@cidadania: uma plataforma para desenvolvimento de aplicativos sociais a partir de dados governamentais abertos
A popularização da internet tem sido crucial para promover novas formas de participação social e colaboração de cidadãos em prol de objetivos em comum. Quando esses objetivos envolvem, por exemplo, ações para participação de cidadãos na gestão pública com a fiscalização da origem e destino de recursos, manifestações sociais e campanhas de conscientização, então tais ações representam uma cultura de colaboração social denominada Webcidadania. A aprovação da Lei de Acesso à Informação, deu um grande passo para a promoção da cultura de Webcidadania no Brasil, pois garante a abertura e acesso dos dados governamentais para qualquer cidadão interessado, podendo receber e compartilhar, pela Internet, os dados requisitados. Nesse sentido, surgiu o paradigma de Dados Governamentais Abertos (DGA), que fortalece o movimento de Webcidadania e consolida o regime democrático por meio da participação cidadã na gestão pública. A proposta central deste projeto de extensão é promover, discutir e facilitar o desenvolvimento de aplicativos sociais a partir de DGAs como forma de fortalecer ações de Webcidadania no Brasil. Para tal, será disponibilizada uma plataforma online denominada 'Web@Cidadania' com um conjunto de ferramentas de análise de dados e uma interface intuitiva que permite a livre manipulação dos dados, possibilitando gerar visualizações conforme os interesses específicos de cada cidadão, bem como compartilhar tais visualizações nas redes sociais. A existência de plataformas para incentivo à Webcidadania não apenas fortalece políticas de transparência governamental e controle social sobre ações do governo, mas também atua como um mecanismo para que os governos possam melhorar sua gestão pública.
Membro: Ricardo Marcondes Marcacini.
A popularização da internet tem sido crucial para promover novas formas de participação social e colaboração de cidadãos em prol de objetivos em comum. Quando esses objetivos envolvem, por exemplo, ações para participação de cidadãos na gestão pública com a fiscalização da origem e destino de recursos, manifestações sociais e campanhas de conscientização, então tais ações representam uma cultura de colaboração social denominada Webcidadania. A aprovação da Lei de Acesso à Informação, deu um grande passo para a promoção da cultura de Webcidadania no Brasil, pois garante a abertura e acesso dos dados governamentais para qualquer cidadão interessado, podendo receber e compartilhar, pela Internet, os dados requisitados. Nesse sentido, surgiu o paradigma de Dados Governamentais Abertos (DGA), que fortalece o movimento de Webcidadania e consolida o regime democrático por meio da participação cidadã na gestão pública. A proposta central deste projeto de extensão é promover, discutir e facilitar o desenvolvimento de aplicativos sociais a partir de DGAs como forma de fortalecer ações de Webcidadania no Brasil. Para tal, será disponibilizada uma plataforma online denominada 'Web@Cidadania' com um conjunto de ferramentas de análise de dados e uma interface intuitiva que permite a livre manipulação dos dados, possibilitando gerar visualizações conforme os interesses específicos de cada cidadão, bem como compartilhar tais visualizações nas redes sociais. A existência de plataformas para incentivo à Webcidadania não apenas fortalece políticas de transparência governamental e controle social sobre ações do governo, mas também atua como um mecanismo para que os governos possam melhorar sua gestão pública..
Membro: Solange Oliveira Rezende.

2013

1.   2013-2013. Agrupamento de fluxos contínuos de dados de alta dimensionalidade
Em 2009, a Sociedade Brasileira de Computação (SBC) se reuniu para estipular os grandes desafios da computação no Brasil com perspectivas para 2020. Um dos desafios apontados foi "como aumentar a nossa capacidade de extrair informações relevantes sobre os fluxos de dados". Uma das subáreas mais atrativas da mineração em fluxos de dados é a de agrupamento, pois não requer a supervisão de um especialista sobre cada exemplo. Tradicionalmente, experimentos científicos dos mais diversos ramos acadêmicos produzem bases de dados com muitos atributos, dificultando sua análise. Contudo, na maioria das vezes, os grupos buscados nessas bases encontram-se em um subespaço, ou variedade, de baixa dimensão, contida no espaço original de alta dimensionalidade. Esse problema, denominado maldição da dimensionalidade, tem limitado o sucesso de muitas técnicas de aprendizado de máquina. Poucos trabalhos na área de agrupamento em fluxos de dados voltaram-se para o cenário de alta dimensionalidade. Todos eles, até o momento, empregam a noção de variância para determinar a relevância das dimensões do fluxo, dado um limiar fixo estipulado a priori pelo usuário. Isso impõe uma forte limitação, dada a natureza volátil de fluxos de dados. Este projeto visa o estudo e a proposta de medidas de quantificação de informação para determinar a relevância de dimensões no cenário de agrupamento em fluxos de dados de alta dimensionalidade. Essa medidas não sofrem dos problemas da variância, já que se baseiam nas probabilidades dos dados e não em sua escala. Além disso, este projeto visa a proposta de mecanismos para a adaptação de parâmetros referentes à determinação da relevância de dimensões, algo essencial dada a natureza volátil de fluxos de dados. Espera-se que com os resultados deste projeto seja possível encontrar grupos em cenários não abordados pelas técnicas atuais.
Membro: Rodrigo Fernandes de Mello.
2.   2013-2013. Agrupamento Hierárquico de Textos para Aprendizado não Supervisionado de Websensors
A popularização de plataformas web para publicação de conteúdo textual tem motivado o desenvolvimento de métodos para extração automática de conhecimento implícito nos textos. Em particular, uma nova gama de estudos e aplicações tem sido proposta para explorar a web como um grande e poderoso 'sensor social'', permitindo monitorar vários tipos de eventos a partir de textos publicados em portais de notícias e redes sociais, como detecção de epidemias, análise de sentimentos, bem como a extração de indicadores políticos e econômicos. Por outro lado, a construção de um sensor da web (websensor) é uma tarefa complexa, pois depende de especialistas de domínio para definição dos parâmetros do sensor, ou seja, expressões para busca, filtro e monitoramento de conteúdo textual da web. A necessidade de especialistas de domínio geralmente limita essas aplicações, pois em muitos problemas não há compreensão clara dos fenômenos que se deseja monitorar. Neste projeto de pesquisa são investigados métodos não supervisionados de aprendizado de máquina, em particular, agrupamento hierárquico de textos para apoiar a construção automática de websensors. A ideia básica é utilizar uma amostra de documentos textuais do domínio do problema e, em conjunto com algoritmos de agrupamento hierárquico para extração de padrões dos textos, apoiar a tarefa de aprendizado não supervisionado de websensors. Dessa forma, espera-se reduzir a dependência de um especialista para definição dos parâmetros dos sensores. Cada websensor representa um determinado fenômeno que pode ser monitorado ao longo do tempo e utilizado para apoiar processos de tomada de decisão.
Membro: Ricardo Marcondes Marcacini.
3.   2013-2013. Aleijadinho 3D
O projeto Ajeijadinho 3D é uma iniciativa apoiada pela Universidade de São Paulo (Museu de Ciências e Pró-reitoria de Cultura e Extensão) que envolve a digitalização 3D das obras do escultor Antônio Francisco Lisboa, mais conhecido como Aleijadinho. O projeto fez uso de técnicas avançadas de aquisição e tratamento de malhas 3D para difusão cultural e auxílio à preservação das obras. As aquisições 3D objeto do projeto foram realizadas ao longo de uma semana, no final do mês de julho de 2013 nas cidades de Ouro Preto, MG e Congonhas, MG. A digitalização foi feita com um equipamento especial fornecido pela empresa Leica Geosystems, o qual permitiu que as obras fossem digitalizadas a distâncias entre 10 e 30 metros, definindo um procedimento não invasivo, e com logística simplificada, sem a necessidade de preparação nem de isolamento dos sítios das obras. Em Ouro Preto, foram digitalizadas as igrejas de Francisco de Assis, Nossa Senhora do Carmo, e Nossa Senhora das Mercês; em Congonhas, foi digitalizado todo o Santuário do Bom Jesus dos Matosinhos e seus 12 profetas. Uma vez digitalizadas, as obras passaram por um longo processo de preparação que exigiu o tratamento minucioso das malhas realizado pelos especialistas da Universidade de São Paulo em parceria com a empresa Imprimate. http://aleijadinho3d.icmc.usp.br/
Membro: José Fernando Rodrigues Júnior.
4.   2013-2013. CEPID - Centros de Pesquisa, Inovação e Difusão / Edital 2011
O foco desta proposta é a transferência de conhecimento matemático para outras áreas da ciência, tecnologia e indústria, por meio de um centro de pesquisa estruturado para esse fim. Todo o conhecimento matemático é, em última análise, aplicável. se não diretamente, por meio de outros conhecimentos. Em algumas áreas da matemática a aplicação é quase ime( Entretanto, a colocação em prática de tal aplicabilidade se encontra muitas vezes travada por tradições incorretas, academicismo mal direcionado e dificuldades operacionais. Nos últimos anos, o crescimento da ciência no Brasil, e da matemática em particular, foi notável. Entretanto, a aplicação tecnológica, muitas vezes medida pelas patentes registradas, não teve o mesmo sucesso. Para fechar essa lacuna é necessário a criação de estruturas institucionais que estabeleçam as pontes entre as ciências matemáticas e aplicações como um objetivo em si mesmo. Não se trata apenas de orientar os trabalhos teóricos a áreas "potencialmente aplicáveis", mas de avançar nas aplicações até as últimas consequências, isto é, sua efetiva implementação na indústria, em sentido amplo. Não é mais possível descansar na posição de que a aplicação é problema de outros. É, de fato, problema de todos e reflete o necessário comprometimento da ciência aplicada e pura com o progresso material e espiritual da sociedade. A estratégia do presente projeto envolve, em primeiro lugar, a aglutinação de grupos destacados nas áreas mais aplicáveis da matemática no Estado visando seu direcionamento para aplicações efetivas. Os grupos selecionados têm demonstrado sua excelência na atividade científica convencional, em primeiro lugar, e em muitos casos, em aplicações relevantes. No CEPID proposto os grupos participantes continuarão com sua atividade científica habitual, e, ao mesmo tempo, desenvolverão "Ações de Transferência" de acordo com o roteiro: 1) Teses de mestrado e doutorado necessariamente vinculadas com aplicações em sentido amplo, com co-orientação explícita de especialistas nesses setores. 2) Realização de pelo menos um Workshop anual de Transferência, onde participarão os membros do CEPID e representantes de indústrias, administração, serviços, setores educativo e tecnológico. 3) Visitas periódicas de membros do CEPID a instituições com potencial para aplicações relevantes. 4) Elaboração de uma publicação interna chamada em princípio "Transference experiences" visando a consolidação de uma publicação mais permanente. Processo FAPESP no. 2013/07375-0.
Membro: Roseli Aparecida Francelin Romero.
5.   2013-2013. Codifique
Codifique é um projeto desenvolvido no contexto do grupo PET-Computação que visa oferecer um curso semestral de programação básica voltado para alunos do ensino médio que desejam conhecer um pouco mais sobre a computação. Durante o curso também são abordados assuntos referentes à lógica e resolução de problemas, conhecimentos que podem facilmente ser aplicados no dia-a-dia. O objetivo é divulgar a carreira de computação e oferecer conhecimentos na área que possam contribuir com a formação do aluno ou ainda estimulá-los a ingressar na carreira, atraindo possíveis talentos para os cursos das áreas de exatas e tecnologia oferecidos pelo ICMC/USP. Semestralmente, diversos alunos que finalizaram o curso demonstraram maior desejo de se inscrever em cursos da área. Observamos que participantes do Codifique efetivamente se tornaram alunos de graduação em cursos relacionados nos anos de 2014, 2015 e 2016. http://cursocodifique.weebly.com/ OBS: minha atuação no projeto Codifique se refere aos oferecimentos nos anos de 2013, 2014 e 2015.
Membro: Moacir Antonelli Ponti.
6.   2013-2013. CRÍTiC@ - Compilação e Recuperação de Informações Técnico-científicas e Indução ao Conhecimento de forma Ágil na Rede AgroHidro
A proposta deste projeto componente é concentrar as ações de análise e organização sistematizada da informação utilizada e produzida pelo projeto "Impactos do uso agrícola e das mudanças climáticas sobre os recursos hídricos em diferentes ecorregiões brasileiras: diagnose e estratégias mitigadoras" AgroHidro. Desta forma, pretende-se melhorar a gestão do conhecimento técnico-científico na área, por meio de análises cruzadas das informações, bem como subsidiar ações de investigação e disseminação do conhecimento na rede de pesquisa. Pois, em uma rede de pesquisa em um domínio de conhecimento fechado, como a Rede AgroHidro, existe a necessidade de possuir um ferramental de análise da informação especificamente útil à rede, que facilite, não apenas, a identificação de bibliografia e outras fontes de material de divulgação, mas que permita o cruzamento de informações de diversas fontes a fim de avaliar o caminho percorrido pela rede em PD&I; por exemplo, tendências, oportunidades, inserção no contexto nacional e áreas deficitárias em tecnologias para gestão de recursos hídricos. Para isso, precisa-se monitorar tanto a própria produção técnico-científica da rede, no passado e presente, como de outras redes ou iniciativas isoladas que visem objetivos semelhantes de PD&I no mesmo domínio de conhecimento no caso, recursos hídricos. Assim, essa proposta integra soluções de tecnologia da informação dando apoio à análise e organização do conhecimento para suportar ações de pesquisa, desenvolvimento e inovação, na rede AgroHidro, objetivando: 1) obter análises, considerando passado e presente, em tendências tecnológicas, de pesquisa e desenvolvimento, em recursos hídricos no Brasil e localizando as estimativas obtidas no tempo e espaço; 2) contribuir com processos de busca e levantamento tecnológico, com uma organização e recuperação da informação próprias, que demandam análises cruzadas de dados, 3) especificar e validar a organização do conhecimento de recursos.
Membro: Solange Oliveira Rezende.
7.   2013-2013. Desenvolvimento de uma Plataforma de Controle para Times de Futebol de robôs
Este projeto consiste no desenvolvimento de um software para paralelizar algoritmos de campos potenciais visando aplicação em tempo real. A aplicação é o ambiente de futebol de robôs, considerado um ambiente dinâmico, requerendo que os algoritmos de controle sejam processados em frações de segundos. Desta forma, serão implementados varios tecnicas de campos potenciais, já implementadas na forma sequencial, em ambiente paralelo, como, o CUDA ou p-Threads. Espera-se com o desenvolvimento deste projeto, conseguir um controlador de multiplos robôs mais eficiente e competitivo.
Membro: Roseli Aparecida Francelin Romero.
8.   2013-2013. Design participativo de jogos digitais terapêuticos com jovens dependentes químicos no Hospital Espírita de Marília
Jogos terapêuticos visam apoiar os tratamentos de reabilitação e ajudar os pacientes a compreender, se motivar e persistir nas práticas terapêuticas. Em particular, o público jovem tem facilidade para aderir às soluções de tecnologia e interagir com jogos. Nesse cenário, esta atividade de extensão tem como objetivo aproximar pacientes jovens (14 a 17 anos), internados no Hospital Espírita de Marília, desse tipo de prática terapêutica. Espera-se envolver esses pacientes e a equipe de saúde do hospital em um processo de construção conjunta, de perspectiva interpessoal, social e cultural, em que por meio de técnicas do Design Participativo e da Semiótica Organizacional, eles participem ativamente da construção desses sistemas computacionais na tentativa de aumentar as chances de uso da solução de software e adesão ao tratamento.
Membro: Kamila Rios da Hora Rodrigues.
9.   2013-2013. Embaixadores ICMC
O "Embaixadores ICMC" inspira-se no projeto da PRG, "Embaixadores da USP", que envolve alunos e docentes para divulgar a USP em escolas públicas, assim como nas "Feiras de Profissões" dos campi do Interior e de São Paulo. Estes têm tido um papel importante para divulgar o ICMC e seus cursos, porém, não sabemos da efetividade dessas ações nas cidades próximas a S. Carlos, tampouco junto aos estudantes do Ensino Médio Público, que são potenciais candidatos aos cursos de nossa instituição (Matemática, Estatística e Computação). Na década de 1990, o Depto. Matemática envidou esforços para divulgar seu curso na região e isto se refletiu, à época, em uma melhoria na taxa de candidatos/vagas da FUVEST. Com a diminuição da procura pelos nossos cursos nos anos recentes e o aumento das opções de formação superior, acreditamos que uma ação similar possa ser retomada. Assim, os "Embaixadores ICMC" têm por objetivos divulgar nossos cursos em escolas públicas da região, e também a USP, porém agora com apoio de recursos da PRCEU e dos departamentos do ICMC. Também é de interesse divulgar, nessas escolas, o Museu de Computação e as demais atividades acadêmicas e de extensão promovidas neste instituto.
Membro: Solange Oliveira Rezende.
10.   2013-2013. Estabilidade em fluxos de dados: uma abordagem baseada em séries substitutas
A detecção de mudança de conceito, tema bastante investigado em Mineração de Fluxos Contínuos de Dados, visa identificar alterações nas propriedades dos dados de entrada. Apesar da existência de inúmeros algoritmos para detecção de mudanças de conceito, não se conhece nenhuma formalização que dê sustentação de que alterações em modelos produzidos à partir de fluxos de dados, de fato, correspondam a mudanças de conceitos dos dados. A partir desta constatação, estudos foram iniciados sobre o conceito de estabilidade de modelos na tentativa de resolver tal problema. Porém, novas lacunas foram encontradas nessa etapa, as quais motivaram este plano de pesquisa o qual visa propor um novo conceito de estabilidade para algoritmos de aprendizado de máquina não-supervisionado, aplicado ao cenário de fluxos de dados. Esse conceito será baseado na avaliação de modelos gerados por séries substitutas ({\it Surrogate Data}). Assim, este plano traça um paralelo entre fluxos de dados e séries temporais, em que há dependência entre os dados. Deve-se, também, projetar um algoritmo para detecção de mudanças de conceitos em fluxos de dados que seja estável de acordo com o novo conceito. Dessa maneira, pode-se estabelecer garantias de que mudanças nos modelos gerados pelo algoritmo de aprendizado de fato correspondem a mudanças nos dados de entrada.
Membro: Rodrigo Fernandes de Mello.
11.   2013-2013. Intelligent sensor for controlling agricultural pests and disease-vector insects
Applications such as intelligent sensors should be able to collect environment information and to make decisions based on input data. An example is an under-development low-cost sensor to detect and classify insects in their species using laser light and machine learning techniques. This sensor is an important step towards the development of intelligent traps able to attract and selectively capture insect species of interest such as disease vectors or agricultural pests, without affecting the beneficial species. The data gathered by the sensor constitutes a data stream with non-stationary characteristics, since the insects metabolism is influenced by environmental conditions such as temperature, humidity and atmospheric pressure. This research grant proposal has two main objectives: the first one is to develop new algorithms to classify in real- time signals from the sensor obtained from the data stream; the second one is to technologically develop the sensor in order to allow the developed machine learning techniques to be embedded in the sensor.
Membro: Diego Furtado Silva.
12.   2013-2013. Modelagem do conhecimento e comportamento com redes complexas
Neste projeto, pretende-se gerar um sistema genérico que represente e descreva vários aspectos do conhecimento e comportamento, incluindo o pensamento e a aquisição do conhecimento por meio da relação entre conceitos. A partir da modelagem do relacionamento entre conceitos por meio de redes semânticas, planeja-se criar um modelo de atividade na camada cognitiva baseado em caminhadas aleatórias que possa explicar a organização, geração e processamento das idéias. Com este modelo, pretendemos identificar configurações de organização e condições iniciais de pensamento capazes de otimizar o processo cognitivo. Através da análise de diálogos reais planejamos verificar parâmetros que favoreçam um consenso caracterizado por alto grau de similaridade entre conjuntos de conceitos ativos no consciente dos agentes emissor e receptor. O aprendizado também será analisado através da excitação do modelo com conceitos provenientes de leituras de livros. Assim, além de investigar propriedades do sistema dinâmico emergente acreditamos ser possível classificar textos de acordo com a quantidade de informação inovadora disponível a partir da análise dos padrões de ativação no processo de leitura. Por ser um modelo genérico, conjecturamos aplicá-lo para representar outros sistemas complexos, já que a ausência de conexões inibitórias o torna potencialmente útil para entender fenômenos de difusão em redes neuronais e propagação de doenças
Membro: Diego Raphael Amancio.
13.   2013-2013. Portal Min@s: corpora de fala e escrita
O projeto visa, por meio de um trabalho conjunto de especialistas em estudos da linguagem, linguística computacional e ciências da computação, desenvolver e implementar um portal integrado de corpora de fala e escrita com funcionalidades de uso de caráter inovador.
Membro: Sandra Maria Aluísio.
14.   2013-2013. Processamento Semântico de Textos em Português Brasileiro
O objetivo geral do projeto de pesquisa, em parceria entre o ICMC-USP e a SAMSUNG, é avançar o estado da arte em processamento semântico de textos/documentos escritos em Português Brasileiro (PB), mais especificamente, permitir a anotação de papéis semânticos (SRL) e a desambiguação lexical de sentido (WSD) de verbos, e, com base nesses recursos e ferramentas, construir aplicações de mineração e sumarização de textos, com especial enfoque em opiniões sobre produtos encontradas na web. O projeto é coordenado pelos Profs. Thiago A. S. Pardo e Sandra M. Aluísio.
Membro: Thiago Alexandre Salgueiro Pardo.
O objetivo geral do projeto de pesquisa, em parceria entre o ICMC-USP e a SAMSUNG, é avançar o estado da arte em processamento semântico de textos/documentos escritos em Português Brasileiro (PB), mais especificamente, permitir a anotação de papéis semânticos (SRL) e a desambiguação lexical de sentido (WSD) de verbos, e, com base nesses recursos e ferramentas, construir aplicações de mineração e sumarização de textos, com especial enfoque em opiniões sobre produtos encontradas na web. O projeto é coordenado pelos Profs. Thiago A. S. Pardo e Sandra M. Aluísio.
Membro: Sandra Maria Aluísio.
15.   2013-2013. Projeto Rondon: Operação "2 de julho"
Atuar como coordenador da equipe do ICMC-USP (2 professores e 8 alunos) na operação "2 de julho" do Projeto Rondon (Ministério da Defesa) na cidade de Cabaceiras do Paraguaçu-BA do dia 18/01 a 03/02 de 2013.
Membro: Dilvan de Abreu Moreira.
16.   2013-2013. Projeto Universal - Detecção de anomalias e eventos extremos em séries climáticas e classificação de imagens de satélite multitemporais
Este projeto tem por objetivo desenvolver novos métodos computacionais para auxiliar na detecção de padrões e descoberta de conhecimento a fim de aprimorar o monitoramento agrometeorológico brasileiro. Mais especificamente, este projeto pretende desenvolver técnicas de detecção de anomalias e eventos extremos em séries temporais climáticas, a partir das mudanças de comportamento espaço-temporais. Além disso, pretende-se propor técnicas para classificação de séries temporais extraídas de imagens de satélite, visando o acompanhamento de culturas agrícolas ao longo do tempo. A abordagem a ser adotada é baseada, principalmente, em conceitos de Mineração de Séries Temporais e da Teoria de Fractais, a fim de identificar padrões e eventos climáticos extremos e seu impacto nas culturas da cana-de-açúcar e do café arábica.
Membro: Robson Leonardo Ferreira Cordeiro.
Este projeto tem por objetivo desenvolver novos métodos computacionais para auxiliar na detecção de padrões e descoberta de conhecimento a fim de aprimorar o monitoramento agrometeorológico brasileiro. Mais especificamente, este projeto pretende desenvolver técnicas de detecção de anomalias e eventos extremos em séries temporais climáticas, a partir das mudanças de comportamento espaço-temporais. Além disso, pretende-se propor técnicas para classificação de séries temporais extraídas de imagens de satélite, visando o acompanhamento de culturas agrícolas ao longo do tempo. A abordagem a ser adotada é baseada, principalmente, em conceitos de Mineração de Séries Temporais e da Teoria de Fractais, a fim de identificar padrões e eventos climáticos extremos e seu impacto nas culturas da cana-de-açúcar e do café arábica.
Membro: Elaine Parros Machado de Sousa.
17.   2013-2013. Real-time Monitoring of Insect Pragues in Agriculture and the Environment
Não há dúvidas de que insetos são muito importantes na agricultura e no meio ambiente. Embora os insetos que mais atraiam atenção sejam as pragas agrícolas, muitos insetos são benéficos para o meio ambiente e para os seres humanos. Por exemplo, insetos são responsáveis pela polinização de pelo menos dois terços de todos os alimentos consumidos no mundo. Devido à sua importância para os seres humanos, o recente declínio das populações de insetos polinizadores, especialmente as abelhas, é considerado um grave problema ambiental frequentemente associado à exposição a pesticidas. Acreditamos que pelo uso de tecnologia é possível reduzir a utilização de pesticidas. Para isso, propomos uma armadilha inteligente de baixo custo que captura seletivamente espécies de insetos nocivos, libertando todas as outras espécies. Tal armadilha terá um impacto mínimo sobre o meio ambiente. No cerne da armadilha inteligente encontra-se um novo sensor que estamos desenvolvendo. Este sensor faz uso de uma luz laser para capturar dados de insetos à distância e utiliza técnicas de Aprendizado de Máquina para identificar as espécies de insetos. Neste projeto propomos desenvolver o sensor e a armadilha inteligente e utilizá-los em uma importante aplicação agrícola, capturando o psilídeo dos citros. Esta praga afeta plantações de laranja e está presente no Brasil e nos Estados Unidos. Descrevemos os desafios científicos e tecnológicos para desenvolver tal armadilha inteligente. Discutimos o nosso plano para desenvolve-la em um prazo de quatro anos a partir do estado atual de desenvolvimento até a realização de experimentos em campo..
Membro: Solange Oliveira Rezende.
18.   2013-2013. Reliable and Smart Crowdsourcing Solution for Emergency and Crisis Management (RESCUER)
The RESCUER project aims at developing an interoperable computer-based solution to support command centres in quickly handling emergencies and managing crisis based on reliable and intelligent analysis of crowdsourcing information mashed up with open data. The special focus is on incidents in industrial areas and at large-scale events.
Membro: José Fernando Rodrigues Júnior.
19.   2013-2013. RESCUER - Reliable and Smart Crowdsourcing Solution for Emergency and Crisis Management - EU
Disasters occurring during large-scale events and in industrial areas may have a huge impact on human lives, property, and the environment. Fast reaction is vital in order to avoid physical damages as well as damages to the public image of the involved organisations. As a result several measures are taken and periodically bolstered to ensure effective and efficient emergency and crisis management. The use of a software system is among those measures, together with staff assignments to a command centre, trainings, and (virtual) simulation exercises. The main challenge for a command centre is to quickly obtain contextual information about the emergency situation in order to make the right decisions. Late decisions or decisions based on inaccurate information have a great potential for causing more damages. As mobile devices are widely used and in many cases connected to the Internet, crowdsourcing information and mobile technologies offer great potential for addressing this challenge. However, existing crowdsourcing information based platforms for emergency and crisis management present several shortcomings. In particular and more importantly, they are neither tailored for use in mobile devices nor for use close to the place of an incident, when people are still under stress. Moreover, there is a lack of resources for automatic analysis of the collected multimedia data. RESCUER aims at developing a smart and interoperable computer platform for using crowdsourcing information mashed up with open data to support emergency and crisis management. The RESCUER platform will be capable of 1) gathering crowdsourcing information in real-time by providing user interaction mechanisms especially developed to be used in emergency situations, 2) greatly improving situational awareness in a command centre in a timely manner, through novel multimedia data analysis methods and effective visualisation and manipulation mechanisms, and 3) semi-automatically providing official and accurate announcement of emergencies to the affected community and general public through an efficient approach for deriving specific documents from generic ones. Furthermore, RESCUER will support ad-hoc communication. Both European and Brazilian industries will benefit from the project results, several of which have the potential for becoming at least de facto standards. As industrial areas periodically simulate incidents for training purposes, the RESCUER platform can be experimentally validated before the Olympic Summer Games in 2016.
Membro: Agma Juci Machado Traina.
20.   2013-2013. Research on Geo-spatial Marine Biology Data Mining Using Time Series, Text Mining and Visualization
We propose a focused, interdisciplinary research project on data mining and data visualization with a specific focus on marine data. This data is particularly challenging for data mining as it presents only a very sparse set of data points with respect to the volume of the marine space that is being modelled and investigated. It also presents a set of challenges in visualization of data and of modelling results, as the data are inherently three-dimensional and from an unfamiliar context relative to data from on land. We will work in an interdisciplinary team with researchers in data mining, data visualization, and marine biology to develop visualization methods that will be appropriate for marine biology applications of data mining. The data may be derived from multiple disparate sources, including fisheries or scientific surveys, autonomous sensors, satellite data or field studies. For model outputs, we will particularly work on the visualization of results from a new generation of ecosystem model, analogous to the general circulation models used to predict global climate. This model includes all organism types on both land and sea. We face the challenge that it can produce gigabytes to terabytes of outputs, including tracking all organism interactions, individual states, and the spatial distribution of individuals. Thus we need to summarize, extract, and visualize outputs at multiple scales including that of individuals, ecological communities, and the globe. These data need to be visualized in a manner that will then be useful and interpretable for the international policy community.
Membro: Gustavo Enrique de Almeida Prado Alves Batista.
21.   2013-2013. Segmentação 3D de estruturas do crânio para monitoramento de alterações ósseas aplicada à Odontologia
A tomografia computadorizada tem papel fundamental na análise de alterações ósseas do crânio. O processo de acompanhamento por imagens, atualmente empreendido por profissionais odontólogos é muito custoso e tedioso, os métodos encontrados em ferramentas de uso genérico são ou inadequadas ou estão espalhadas por diversos aplicativos, requerendo o uso simultâneo de várias delas. Este projeto tem por objetivo definir, desenvolver e aprimorar técnicas de segmentação interativa 3D e tomografias do crânio, de forma que estruturas anatômicas de interesse sejam corretamente segmentadas. Com isso, medidas morfológicas para fins terapêuticos podem ser extraídas ao longo do tempo, para um dado paciente. O método proposto combina pré-segmentação por superpixels e segmentação baseada em atlas, além da interatividade com o usuário para corrigir prováveis erros na segmentação.
Membro: João do Espirito Santo Batista Neto.
22.   2013-2013. Sistema Tutorial Interativo o on-line para Treinamento do processo de Importação de Bens e Materiais para Pesquisa Apoiado pelo CNPq

Membro: Solange Oliveira Rezende.
23.   2013-2013. Sumarização e Personalização de Vídeos
Atualmente, usuários têm cada vez mais necessidade de recuperar informações, incluindo vídeos, que reflitam seus interesses individuais. A literatura reporta várias técnicas de recuperação baseadas em conteúdo para filtrar, selecionar ou criar sumários de vídeos. Contudo, a maioria das técnicas automáticas utiliza informações internas do fluxo de vídeo, dificultando a extração de conteúdo semântico que dê suporte adequado à personalização dos resultados. Por outro lado, as técnicas que utilizam informações externas possibilitam a captura de informações semânticas, no entanto, em geral, tais informações são obtidas de uma maneira que ainda exige um grande esforço computacional ou humano. Com base nesse contexto, o objetivo deste projeto é desenvolver métodos para recuperação personalizada de vídeos que subsidiem o desenvolvimento de melhores técnicas de recomendação (filtragem) e de sumarização, atendendo a necessidades ou preferências de usuários específicos.
Membro: Rudinei Goularte.
24.   2013-2013. Uma Plataforma para Recomendação Automática de Pontos de Interesse em Cidades Brasileiras: Arquitetura e Projeto Piloto
PROGRAMA CIÊNCIA SEM FRONTEIRAS ? BOLSAS NO PAÍS MODALIDADE ATRAÇÃO DE JOVENS TALENTOS ? BJT
Membro: Maria da Graca Campos Pimentel.
25.   2013-2013. Uma Plataforma Paralela para Controle de Times de Futebol de Robôs
Este projeto consiste na paralelização de vários metodos baseados em campos potenciais, para controle de times de robôs, visando aplicação em tempo real. A aplicação é o ambiente de futebol de robôs, que é um ambiente dinâmico, requerendo que os algoritmos de controle sejam processados em frações de segundos. Quanto menor o tempo de processamento, mais rápida será a comunicação entre os vários módulos que constituem o sistema de controle e de uma forma mais rápida os comandos serão enviados aos robôs para atuarem de uma forma mais eficiente no jogo. Desta forma, serão implementadas várias técnicas de campos potenciais, já implementadas na forma sequencial, em ambiente paralelo, como, o CUDA. Espera-se com o desenvolvimento deste projeto, conseguir um controlador de múltiplos robôs mais eficiente e competitivo. Neste projeto participam alunos de doutorado, de mestrado e de iniciação científica, vinculados ao grupo Warthog Robotics Group. O sistema de controle a ser desenvolvido será aplicado a dois times de futebol robôs, que vem sendo desenvolvidos no LAR/ICMC/USP. Um deles é voltado para a categoria IEEE Very Small Size, denominado USPDRoids, e o outro para a categoria Small Size, denominado Warthog-SS.
Membro: Roseli Aparecida Francelin Romero.
26.   2013-2013. Visual text analytics (FAPESP 2013//50380-4)
Esta proposta é vinculada ao projeto temático "Desafios na Visualização Exploratória de Dados Multidimensionais" (FAPESP 2011/227498) desenvolvida no ICMC-USP, e ao projeto "Visual Text Analytics" desenvolvido na Dalhousie University, no Canadá (https://projects.cs.dal.ca/visualtextanalytics/), em que o parceiro industrial é a empresa Aerolnfo Systems (Boeing Canada Operations Ltda.). Ambos os projetos tem, entre os seus objetivos, o desenvolvimento e melhoria de técnicas de apoio à análise visual de coleções de documentos textuais, o que demanda investigações em como integrar técnicas de mineração de texto com técnicas interativas de visualização para propor ferramentas que apoiem as pessoas em tarefas que demandam o entendimento de um cenário para tomada de decisão. Os desafios a serem enfrentados para obter ferramentas mais eficazes incluem: a busca por metáforas visuais adequadas para texto; a investigação de técnicas alternativas de pré-processamento de texto capazes de gerar modelos de representação semanticamente mais informativos; a extração e visualização de conceitos, nomes e relações em coleções de documentos grandes e ruidosas; a visualização de relações entre conceitos em texto como estruturas de grafo; o suporte à visualização e interação em tempo real, o que requer um cuidadoso compromisso entre processamento on-line e off-line; novas técnicas de visualização e de interação com texto que ajudem os especialistas de domínio a navegar pelo conteúdo do corpus ajustando a mineração e/ou a visualização. Duração: Novembro de 2013 a Outubro de 2015.
Membro: Maria Cristina Ferreira de Oliveira.
Descrição: Esta proposta é vinculada ao projeto temático "Desafios na Visualização Exploratória de Dados Multidimensionais" (FAPESP 2011/227498) desenvolvida no ICMC-USP, e ao projeto "Visual Text Analytics" desenvolvido na Dalhousie University, no Canadá (https://projects.cs.dal.ca/visualtextanalytics/), em que o parceiro industrial é a empresa Aerolnfo Systems (Boeing Canada Operations Ltda.). Ambos os projetos tem, entre os seus objetivos, o desenvolvimento e melhoria de técnicas de apoio à análise visual de coleções de documentos textuais, o que demanda investigações em como integrar técnicas de mineração de texto com técnicas interativas de visualização para propor ferramentas que apoiem as pessoas em tarefas que demandam o entendimento de um cenário para tomada de decisão. Os desafios a serem enfrentados para obter ferramentas mais eficazes incluem: a busca por metáforas visuais adequadas para texto; a investigação de técnicas alternativas de pré-processamento de texto capazes de gerar modelos de representação semanticamente mais informativos; a extração e visualização de conceitos, nomes e relações em coleções de documentos grandes e ruidosas; a visualização de relações entre conceitos em texto como estruturas de grafo; o suporte à visualização e interação em tempo real, o que requer um cuidadoso compromisso entre processamento on-line e off-line; novas técnicas de visualização e de interação com texto que ajudem os especialistas de domínio a navegar pelo conteúdo do corpus ajustando a mineração e/ou a visualização. Integrantes: Maria Cristina Ferreira de Oliveira - Coordenador / Alneu de Andrade Lopes - Integrante / Rosane Minghim - Integrante / Fernando Vieira Paulovich - Integrante / Axels Soto - Integrante / Evangelos Milios - Integrante.
Membro: Alneu de Andrade Lopes.
27.   2013-2013. XML-based Geo-Climate Approximate Pattern Search and Pattern Discovery in Large Databases (CAPES SticAMSUD)
The goal of our project is to develop efficient techniques for i) approximate pattern search, and ii) approximate pattern discovery of spatio-temporal climate (and related agronomic) data in large databases. On one hand, the huge amount of heterogeneous geo-climate data originating from diverse sources (e.g., climate forecasting models, satellite imagery, GISs) underlines an increasing need in interoperability, and efficient data exchange and retrieval. On the other hand, XML has been gaining importance as the backbone for scientific data description formats (e.g., XSIL, XDF, CML, etc.) as well as geographic data (namely GML ? Geography Mark-up Language), and complex multimedia data descriptions (SVG, X3D, etc.) on the Web. Hence, providing XML-based solutions to handle geo-climate (and related) data seems a promising step toward achieving highly flexible and extensible solutions for geo-climate data mining systems. By combining the efforts of researchers from the LE2I-CNRS laboratory, Dijon, France (specialized in XML similarity-related studies), ICMC-USP laboratory, Sao Carlos, Brazil (specialized in similarity search, access methods and mining of complex data), II-FCM-UNMSM laboratory, Lima, Peru (specialized in Semantic Web technologies as XML, RDF, OWL and JADE), SI-UPC laboratory, Lima, Peru (specialized in information system methods and techniques), and GRyDs-USB laboratory in Caracas-Venezuela (specialized in semantic web technologies), we aim at: i) investigating the use and/or combination of XML-based formats to describe agronomic/meteorological measurements, and related geo-climate data, ii) investigating the use of domain specific knowledge bases (thesauri, taxonomies and/or ontologies) to handle the semantics of geo-climate and related agronomic data, iii) introducing dedicated XML-based similarity measures, considering both data structure (hierarchical organization) and semantics (meaning), for approximate geo-climate data search and pattern discovery,
Membro: Agma Juci Machado Traina.

2012

1.   2012-2012. [CNPq/Universal] PrInt-on-the-Cloud: Procedência de Dados em Processos de Integração Aplicada à Computação em Nuvem
A integração de dados de fontes heterogêneas tem sido foco de interesse tanto da área acadêmica quanto da indústria. Apesar de existirem diversas abordagens na literatura para tratar problemas de integração e problemas de procedência, são poucos os trabalhos que propõem a utilização da procedência dos dados como estratégia para aprimorar resultados de processos de integração. Ademais, esses poucos trabalhos apresentam duas limitações principais. Primeiro, eles não oferecem funcionalidades relacionadas à reprodução de decisões de integração tomadas pelo usuário, principalmente quando as fontes heterogêneas não podem ser corrigidas pelos processos de integração. Outra limitação é que esses trabalhos não são passíveis de serem executados em ambientes de computação em nuvem. Visando suprir essas duas limitações, este projeto de pesquisa visa propor oPrInt-on-the-Cloud, um modelo de procedência adaptado à computação em nuvem para subsidiar processos de integração nos quais as fontes de dados podem ser atualizadas somente pelos seus proprietários, impossibilitando que o processo de integração retifique eventuais conflitos diretamente nas fontes. Sob o aspecto de procedência dos dados em processos de integração, o modelo tem como requisitos centrais garantir as propriedades de reaplicação de decisões de integração entre diferentes processos de integração e de atualização incremental do banco de dados integrado somente com os dados que foram modificados desde o último processo de integração. Sob o aspecto de computação em nuvem, o modelo tem como requisito central o seu uso em um ambiente de computação em nuvem, levando em consideração principalmente aspectos de armazenamento das decisões de integração tomadas pelo usuário, as quais são a base para as propriedades de reaplicação e atualização incremental.
Membro: Cristina Dutra de Aguiar.
2.   2012-2012. [FAPESP] Processamento de consultas OLAP com predicados de similaridade entre imagens e predicados espaciais em ambientes de data warehousing não-convencionais
Existe uma nova gama de consultas OLAP (on-line analytical processing) que atualmente não podem ser respondidas por aplicações de data warehousing (DWing) convencionais, desde que elas envolvem dados complexos multimídia, tais como imagens, áudio e vídeos, e dados complexos geográficos, tais como pontos, linhas e polígonos. Por exemplo, uma determinada equipe médica pode estar interessada em analisar a quanti-dade de imagens que são similares a uma determinada imagem de câncer de mama para avaliar a evolução da doença em hospitais localizados até 100 km de distância da cidade de São Carlos. Essa análise não pode ser realizada por a aplicações de DWing convencionais porque utiliza como base imagens médicas de doenças, requer o uso de operações baseadas em similaridade de imagens e também o processamento de um predicado espacial que viabilize a análise de dados georeferenciados de acordo com o relacionamento espacial existente entre esses dados. Dentro deste contexto, este projeto de pesquisa visa propor técnicas que permitam o proces-samento de consultas OLAP com predicados de similaridade entre imagens e predicados espaciais, com ênfase em data warehouses de imagens e data warehouses geográficos.
Membro: Cristina Dutra de Aguiar.
3.   2012-2012. Adaptação automática de agrupamento para fluxos de dados
O desenvolvimento de métodos de análise computacional em Aprendizado de Máquina tem facilitado a compreensão de fenômenos complexos. O método mais utilizado na análise exploratória de fenômenos é o Agrupamento de Dados, cujo objetivo é encontrar e distinguir tendências relevantes a partir da avaliação das similaridades de dados. Contudo, o planejamento e a execução de agrupamento de dados é uma atividade complexa que envolve várias etapas de decisões. Atualmente, tais decisões são tomadas por especialistas e pela aplicação de métodos iterativos, nos quais busca-se otimizar o desempenho inferido na etapa de validação. Porém, essa abordagem pode apresentar altos custos e impossibilidades práticas em sua aplicação a fenômenos que exigem a rápida coleta e processamento de grandes volumes de dados, i.e., fluxos de dados. Recentemente, tem-se buscado alternativas para a adaptação automática das decisões inicialmente tomadas por especialistas. Com o objetivo de atender essa necessidade, o proponente deste projeto, no contexto de sua tese, desenvolveu uma abordagem de adaptação de parâmetros para algoritmos de agrupamento. Como resultados, observou-se melhoras no desempenho do algoritmo de agrupamento e a possibilidade de estender essa abordagem a partir da adaptação de funções de distância e estratégias de busca de grupos. Com o objetivo de investigar essas possibilidades e auxiliar a compreensão efetiva de fluxos de dados, propõe-se neste plano de pesquisa a realização de estudos para o desenvolvimento de abordagens que visam a adaptação automática de algoritmos de agrupamento para fluxos de dados.
Membro: Rodrigo Fernandes de Mello.
4.   2012-2012. Análise da consistência de algoritmos de aprendizado não supervisionado por meio do conceito de estabilidade
A evolução das tecnologias de armazenamento persistente permitiu e motivou a produção de maiores volumes de dados. No entanto, o aumento de escala torna cada vez mais complexa a análise e processamento desses dados. Para essas tarefas, são úteis técnicas vinculadas ao paradigma de aprendizado não supervisionado, o qual visa caracterizar dados de acordo com métricas de similaridade ou densidade. Nesse contexto, foram propostos algoritmos de agrupamento de dados, os quais permitem encontrar estruturas nos dados capturados, sumarizar informações e reduzir ou eliminar ruídos. O fato de não haver uma base formal bem estabelecida e amplamente aceita para esses algoritmos motivou este trabalho, o qual visa a análise da consistência de algoritmos de aprendizado não supervisionado por meio do conceito de estabilidade, derivado da Teoria do Aprendizado Estatístico. Espera-se que assim seja possível provar teoremas análogos aos já estabelecidos para aprendizado supervisionado e, com isso, obter garantias de desempenho para os algoritmos de agrupamento de dados. Uma fundamentação teórica para a essa área é de grande relevância, pois permitiria compreender melhor as limitações dos algoritmos existentes, propor novas técnicas e nortear novas pesquisas em agrupamento.
Membro: Rodrigo Fernandes de Mello.
5.   2012-2012. Análise e Mineração de Data Streams Multidimensionais
O projeto tem por objetivo principal desenvolver técnicas de análise e mineração de data streams multidimensionais evolutivas, com aplicação em descoberta de conhecimento em dados agrometeorológicos, tais como: medidas climáticas reais coletadas de estações meteorológicas de superfície, medidas climáticas geradas por modelos de previsão de cenários climáticos e dados de sensoriamento remoto relacionados ao monitoramento agrícola. A abordagem inicial a ser adotada é baseada em conceitos da Teoria de Fractais, utilizados para análise de comportamento temporal. A aplicação em dados agrometeorológicos visa identificar eventos climáticos extremos, mudanças climáticas e o impacto desses eventos em áreas de plantio de café e cana-de-açúcar na região Sudeste do Brasil.
Membro: Elaine Parros Machado de Sousa.
6.   2012-2012. Complexity-invariance for Classification, Clustering and Motif Discovery in Time Series
Recently, there is an increasing interest in time series processing due to the large number of application domains that generate data with such property. Such interest can be measured by the vast amount of methods recently proposed in literature to tasks such as classification, clustering, summarization, abnormality detection and motif discovery. Recent studies have shown for several problems that methods based on similarity present an efficacy that is hardly surpassed, even when compared to more sophisticated methods. This is mainly due to the fact that the community has studied and proposed several invariances to distance measures for time series. The invariances make the distance measures ignore certain undesired data properties. The most well-known example is the invariance to local differences in time scale, obtained with the warping technique. Other invariances include the invariance to differences in amplitude and offset, phase and occlusion. Recently, we demonstrated to the scientific community that time series similarity classification methods can be largely benefited by a new invariance: complexity invariance. The main objective of this research project is to investigate new complexity-invariant distance measures and assess how such measures can improve the efficacy especially of clustering and motif discovery algorithms.
Membro: Gustavo Enrique de Almeida Prado Alves Batista.
7.   2012-2012. Coopmedia: produção colaborativa de conteúdo multimidia via interações ubíquas
O projeto de pesquisa investiga o problema da produção de conteúdo multimídia sob a perspectiva da computação ubíqua de modo geral, e da colaboração entre usuários de modo particular. O objetivo principal do projeto é desenvolver ferramental teórico e prático que apoie a produção colaborativa de documentos multimídia. A perspectiva adotada envolve explorar a interação ubíqua de usuários com dispositivos e aplicações de modo a resultar na produção automática de documentos multimídia.
Membro: Maria da Graca Campos Pimentel.
8.   2012-2012. Desafios em Visualização Exploratória de Dados Multidimensionais: Novos Paradigmas, Escalabilidade e Aplicações
Este projeto visa desenvolver novas técnicas e paradigmas que contribuam para o avanço da área de visualização de dados científicos e abstratos, com ênfase no tratamento e manipulação de dados de alta dimensão, multimodais e variantes no tempo. Os novos paradigmas a serem desenvolvidos deverão fornecer metáforas visuais criadas a partir de técnicas de projeção multidimensional e árvores filogenéticas, buscando facilitar a compreensão, exploração e mineração visual de, entre outros, dados textuais, coleções de imagens ou músicas e dados de sensoriamento em nanoescala. Além de primitivas geométricas como unidade de representação visual, propomos usar estruturas de árvores e combinações de entidades geométricas com entidades abstratas a fim de criar um arcabouço unificado de manipulação e representação visual de dados de alta dimensão. Este projeto também inova na proposta de trazer métodos de visualização e exploração visual para o contexto de dispositivos portáteis. Os desenvolvimentos aqui propostos permitirão manter os grupos de pesquisa envolvidos na vanguarda da pesquisa na área, em nível mundial, fomentando a criação de propriedade intelectual nacional e a transferência tecnológica.
Membro: Moacir Antonelli Ponti.
Este projeto visa desenvolver novas técnicas e paradigmas que contribuam para o avanço da área de visualização de dados científicos e abstratos, com ênfase no tratamento e manipulação de dados de alta dimensão, multimodais e variantes no tempo. Os novos paradigmas a serem desenvolvidos deverão fornecer metáforas visuais criadas a partir de técnicas de projeção multidimensional e árvores filogenéticas, buscando facilitar a compreensão, exploração e mineração visual de, entre outros, dados textuais, coleções de imagens ou músicas e dados de sensoriamento em nanoescala. Além de primitivas geométricas como unidade de representação visual, propomos usar estruturas de árvores e combinações de entidades geométricas com entidades abstratas a fim de criar um arcabouço unificado de manipulação e representação visual de dados de alta dimensão. Este projeto também inova na proposta de trazer métodos de visualização e exploração visual para o contexto de dispositivos portáteis. Os desenvolvimentos aqui propostos permitirão manter os grupos de pesquisa envolvidos na vanguarda da pesquisa na área, em nível mundial, fomentando a criação de propriedade intelectual nacional e a transferência tecnológica.
Membro: João do Espirito Santo Batista Neto.
Este projeto visa desenvolver novas técnicas e paradigmas que contribuam para o avanço da área de visualização de dados científicos e abstratos, com ênfase no tratamento e manipulação de dados de alta dimensão, multimodais e variantes no tempo. Os novos paradigmas a serem desenvolvidos deverão fornecer metáforas visuais criadas a partir de técnicas de projeção multidimensional e árvores filogenéticas, buscando facilitar a compreensão, exploração e mineração visual de, entre outros, dados textuais, coleções de imagens ou músicas e dados de sensoriamento em nanoescala. Além de primitivas geométricas como unidade de representação visual, propomos usar estruturas de árvores e combinações de entidades geométricas com entidades abstratas a fim de criar um arcabouço unificado de manipulação e representação visual de dados de alta dimensão. Este projeto também inova na proposta de trazer métodos de visualização e exploração visual para o contexto de dispositivos portáteis. Os desenvolvimentos aqui propostos permitirão manter os grupos de pesquisa envolvidos na vanguarda da pesquisa na área, em nível mundial, fomentando a criação de propriedade intelectual nacional e a transferência tecnológica
Membro: Fernando Vieira Paulovich.
Este projeto visa desenvolver novas técnicas e paradigmas que contribuam para o avanço da área de visualização de dados científicos e abstratos, com ênfase no tratamento e manipulação de dados de alta dimensão, multimodais e variantes no tempo. Os novos paradigmas a serem desenvolvidos deverão fornecer metaforas visuais criadas a partir de técnicas de projeção multidimensional e árvores filogenéticas, buscando facilitar a compreensão, exploração e mineração visual de, entre outros, dados textuais, coleções de imagens ou músicas e dados de sensoriamento em nanoescala. Além de primitivas geometricas como unidade de representação visual, propomos usar estruturas de árvores e combinações de entidades geométricas com entidades abstratas a fim de criar um arcabouço unificado de manipulação e representação visual de dados de alta dimensão. Este projeto também inova na proposta de trazer métodos de visualização e exploração visual para o contexto de dispositivos portáteis. Os desenvolvimentos aqui propostos permitirão manter os grupos de pesquisa envolvidos na vanguarda da pesquisa na área, em nível mundial, fomentando a criação de propriedade intelectual nacional e a transferência tecnologica.
Membro: Alneu de Andrade Lopes.
9.   2012-2012. Informatividade e Topicalidade na Sumarização Multidocumento: Novos Desafios e Métodos
Diante da grande e crescente quantidade de informação disponível, principalmente on-line, e da escassez de tempo e das dificuldades para se lidar com todo esse conteúdo, aplicações de processamento textual têm se tornado cada vez mais relevantes. De origem relativamente recente (meados da década de 90), a sumarização automática multidocumento é uma destas aplicações. Seu objetivo é produzir automaticamente um único sumário (ou resumo, como mais comumente chamado) a partir de um grupo de textos sobre um mesmo tópico. No Brasil e para a língua portuguesa, somente nos últimos anos é que pesquisas nessa área começaram. A partir da criação de recursos e ferramental inéditos e do desenvolvimento de métodos e sistemas simples e ingênuos a abordagens mais sofisticadas, produziram-se resultados do estado da arte e, em alguns casos, melhores do que os obtidos em pesquisas internacionais e para outras línguas. Nesta proposta de pesquisa, com base na pesquisa recente na área, objetiva-se dar um passo além e investigar 3 principais questões correlacionadas que podem avançar o estado da arte, a saber: (i) como tratar conjunta e adequadamente a topicalidade nos textos e a informatividade dos sumários, (ii) como modelar e qual o impacto da combinação de métodos superficiais/estatísticos e profundos/linguísticos para a produção de sumários mais informativos e representativos da distribuição topical nos textos, e (iii) quais são as características do processo humano de sumarização que podem ser sistematizadas e formalizadas para que subsidiem as questões anteriores. Enquanto as duas primeiras questões lidam com a produção de sumários melhores, a última pode subsidiar novos métodos e dar direcionamentos diferentes para abordagens atuais. Acredita-se que, além da formação de recursos humanos e da criação de uma massa crítica de pesquisadores na área, tão pequena no Brasil, esse projeto tem potencial de trazer contribuições significativas para a área.
Membro: Thiago Alexandre Salgueiro Pardo.
10.   2012-2012. Intelligent Biodiversity Data Processing Using the Semantic Web
Biodiversity data, in most cases, are stored in relational databases. Researchers search for information in these data using keywords, the only way to search since these data are not structured. However, this type of search is not efficient to be used in large amounts of heterogeneous data, such as those on biodiversity, presenting low precision and recall in this type of data. This project applies techniques and tools from the Semantic Web to solve this problem, including: creating and adapting ontologies to describe data on biodiversity; description of data sets using these ontologies; reasoning about this data to find inconsistencies; making these data sets available as online resources, SPARQL Endpoints, complying with the standards for Linked Open Data (LOD) to make them readable and intelligible directly by machines and "connected" to other LOD data sources on the Web. The ultimate goal is that this data can now be automatically processed by machines to allow automatic detection of inconsistencies, the semantic search for data sets (in addition to the search for keywords) and automatic integration with other data sources also in LOD format. This will facilitate researchers' access to the information contained in this data and the use of friendly interfaces for automatic processing.
Membro: Dilvan de Abreu Moreira.
11.   2012-2012. Invariância à Complexidade em Classificação, Agrupamento e Descoberta de Motifs em Séries Temporais
Há recentemente um crescente interesse no processamento de séries temporais devido a grande quantidade de domínios de aplicação que geram dados com essa característica. Esse interesse pode ser medido pela vasta quantidade de métodos recentemente propostos na literatura para tarefas como classificação, agrupamento, sumarização, detecção de anomalias e descoberta de motifs. Estudos recentes têm mostrado que para muitos problemas, os métodos baseados em similaridade apresentam uma eficácia difícil de ser superada, mesmo por métodos mais sofisticados. Isso se deve em grande parte pelo fato de que a comunidade tem estudado e proposto diversas invariâncias para medidas de distância entre séries temporais. As invariâncias fazem com que as medidas de distância ignorem determinadas características indesejadas dos dados. O exemplo mais conhecido é a invariância às diferenças locais na escala de tempo, obtida pela técnica de warping. Outras invariâncias incluem a invariância às diferenças de amplitude e offset, fase e oclusão. Recentemente foi demonstrado à comunidade científica que métodos de classificação de séries temporais por similaridade podem ser muito beneficiados por uma nova invariância: invariância à complexidade. O principal objetivo deste projeto de pesquisa é investigar novas medidas de distância invariantes à complexidade e avaliar o quanto essas medidas podem melhorar a eficácia, sobretudo de algoritmos de agrupamento e descoberta de motifs.
Membro: Diego Furtado Silva.
Há recentemente um crescente interesse no processamento de séries temporais devido a grande quantidade de domínios de aplicação que geram dados com essa característica. Esse interesse pode ser medido pela vasta quantidade de métodos recentemente propostos na literatura para tarefas como classificação, agrupamento, sumarização, detecção de anomalias e descoberta de motifs. Estudos recentes têm mostrado que para muitos problemas, os métodos baseados em similaridade apresentam uma eficácia difícil de ser superada, mesmo por métodos mais sofisticados. Isso se deve em grande parte pelo fato de que a comunidade tem estudado e proposto diversas invariâncias para medidas de distância entre séries temporais. As invariâncias fazem com que as medidas de distância ignorem determinadas características indesejadas dos dados. O exemplo mais conhecido é a invariância às diferenças locais na escala de tempo, obtida pela técnica de warping. Outras invariâncias incluem a invariância às diferenças de amplitude e offset, fase e oclusão. Recentemente foi demonstrado à comunidade científica que métodos de classificação de séries temporais por similaridade podem ser muito beneficiados por uma nova invariância: invariância à complexidade. O principal objetivo deste projeto de pesquisa é investigar novas medidas de distância invariantes à complexidade e avaliar o quanto essas medidas podem melhorar a eficácia, sobretudo de algoritmos de agrupamento e descoberta de motifs.
Membro: Solange Oliveira Rezende.
12.   2012-2012. Modelos Computacionais do Cérebro Baseados em Populações Neurodinâmicas no Nível Mesoscópico
Modelos de redes neurais atuais estão muito aquém da fisiologia do neurônio do cortex cerebral. Modelos do cérebro baseados em neurodinâmica consideram neurônios sistemas dinâmicos. E como tais, buscam compreender e representar as razões pelas quais os neurônios são células excitáveis. A corrente microscópica de cada neurônio soma com as correntes de outros neurônios, o que provoca uma diferença de potencial macroscópica, medida com o electroencefalograma (EEG). O EEG registra os padrões de atividade de populações de neurônios mesoscópicas. Um bom modelo neural deve reproduzir a dinâmica das populações de neurônios: nessa abordagem, o processamento de informação depende não apenas das propriedades eletrofisiológicas dos neurônios, mas também das propriedades dinâmicas de suas populações.
Membro: João Luís Garcia Rosa.
13.   2012-2012. Métodos Avançados de Seleção de Conteúdo Multimídia
O conhecimento de informações semânticas a respeito do conteúdo e interesses dos usuários é essencial para o provimento de serviços de seleção e recomendação, que filtram os dados segundo as intenções e preferências de cada indivíduo. Por outro lado, a falta de técnicas genéricas e eficientes para extrair essas informações de alto-nível faz com que o problema da lacuna semântica persista até hoje. A utilização de anotações produzidas pelos usuários pode reduzir esse problema, uma vez que metadados mais ricos semanticamente podem ser extraídos a partir da atividade de interação realizada pelos usuários. Entretanto, para viabilizar essa estratégia, alguns problemas precisam ser investigados, como a presença de ruídos e dados irrelevantes, a maneira de se construir e representar as informações, a falta de mecanismos para transformar as anotações em dados estruturados semanticamente e a aplicação dessas informações em serviços apropriados. Este plano de pesquisa tem como objetivo investigar esses desafios, de modo a possibilitar o desenvolvimento de aplicações de seleção multimídia. Espera-se que os metadados semânticos sobre conteúdo e preferências pessoais possam ser extraídos colaborativamente pelos usuários de maneira irrestrita ao domínio de dados, não requerendo esforços dispendiosos e suscetíveis a erros tal como ocorre em abordagens verificadas atualmente na literatura.
Membro: Marcelo Garcia Manzato.
14.   2012-2012. Métodos de Agrupamento Hierárquico para Organização Automática de Resultados de Motores de Busca
Tradicionalmente, a recuperação de informação textual é baseada em consultas por palavras-chave, nas quais uma lista ordenada com os documentos mais relevantes à consulta é apresentada como resposta. No entanto, algumas limitações desse modelo são bem conhecidas na literatura. Em geral, os usuários exploram apenas os primeiros resultados da lista de resposta, em detrimento dos documentos considerados menos relevantes pelo motor de busca. Ainda, uma outra parte significativa de informação também é perdida devido à dificuldade dos usuários expressarem seus objetivos por meio de palavras-chave. Nesse projeto, métodos de agrupamento hierárquico de textos são explorados para auxiliar a organização dos resultados retornados por motores de busca. Os dados retornados por um ou mais motores de busca são organizados em grupos, em que itens similares e relacionados a um mesmo tema são alocados juntos em um mesmo grupo. Ainda, os grupos são organizados de maneira hierárquica, de forma que grupos próximos à raiz representam o conhecimento mais genérico, enquanto seus detalhamentos e conhecimento mais específico são dispostos nos grupos e subgrupos de níveis mais baixo. Cada grupo possui uma descrição sucinta, ou seja, um tópico que permite auxiliar o usuário em uma busca exploratória dos resultados obtidos, em diversos níveis de granularidade. Essa organização em tópicos facilita a busca pela informação de interesse, obtendo-se uma visão complementar ao modelo baseado em uma simples lista ordenada de acordo com a relevância. Por outro lado, o agrupamento de resultados de busca tem desafios e requisitos específicos. A natureza dinâmica dos dados provenientes dos motores de busca, a necessidade de eficiência computacional e a exigência de interpretação e interação por parte dos usuários, resultaram em novos requisitos, com seus respectivos desafios científicos e tecnológicos, que são objetivos de pesquisa deste projeto.
Membro: Solange Oliveira Rezende.
15.   2012-2012. NAP-USP eScience
Modern science is interdisciplinary and data-intensive. For instance, in the 1000 Genomes Project (www.1000genomes.org), the comparative study of 629 individuals has already generated 7.3 TB of data. Analogous situations exist in fields such as astronomy, agriculture, social sciences, etc. Ten years ago, the problem was how to obtain data. Today, the bottleneck is the need for new computational strategies and tools so that scientists can manage these massive volumes of heterogeneous, distributed, data, so that they can generate new knowledge from the processing, analysis and visualization of the data. This launched the basis of the so-called eScience: the combination of advanced research in computer science and mathematical modeling to allow and accelerate research in other knowledge domains. National programs in eScience have been created in the US, GB, Australia and other countries, that recognized the importance of this theme for the advancement of science. The main goal of this project is the design and construction of a collaborative network for research in eScience, in a partnership that involves computer science, mathematical modeling and specific domains in the exact, life, agricultural sciences and social sciences.
Membro: Fernando Vieira Paulovich.
16.   2012-2012. Núcleo de Apoio à Pesquisa de Aprendizado de Máquina em Análise de Dados (NAP-AMDA)
Núcleo de Apoio à Pesquisa de Aprendizado de Máquina em Análise de Dados (NAP-AMDA)
Membro: Cristina Dutra de Aguiar.
17.   2012-2012. Núcleo de Pesquisa em e-Science da USP - USP e-Science
Edital Programa de Incentivo à Pesquisa da USP - 2a. fase (Pr´-reitoria de Pesquisa, USP)
Membro: Maria Cristina Ferreira de Oliveira.
18.   2012-2012. Processamento e Visualização Interativa de Grandes Grafos
Grafos determinam dados complexos presentes em inúmeros campos de pesquisa, sendo que a extração de informações úteis de uma estrutura de grafo pode prover ganhos significativos para diversas aplicações. No entanto, novas tecnologias de comunicações e monitoramento têm produzido grafos com magnitudes que dificultam sua computação e análise. Dentre os processos usados para se lidar com tais grafos está o particionamento hierárquico; segundo esta metodologia, os vértices de um grafo podem ser agrupados recursivamente, determinando uma hierarquia, de acordo com os relacionamentos definidos por eles próprios. Mesmo assim, as atuais estruturas de dados usadas para esta computação baseiam-se na memória primária dos equipamentos computacionais, limitando as possibilidades de uso a um recurso escasso se comparado aos volumes de dados considerados. Diante disso, o presente trabalho visa à pesquisa e ao desenvolvimento de uma nova metodologia de representação de grafos particionados hierarquicamente. A metodologia deve permitir o processamento de grafos armazenados em disco ao mesmo tempo em que permite responder a questões de conectividade relativas ao grafo original e às partições da representação hierárquica. Como prova de conceito, a inovação proposta será aplicada a um sistema de visualização multi-resolução de grafos denominado GMine. A nova abordagem possibilitará alternativas menos sujeitas à cardinalidade destes conjuntos de dados
Membro: José Fernando Rodrigues Júnior.
19.   2012-2012. Processamento Perceptual de Consultas por Similaridade Integrando Perfil do Especialista em Imagens Apoiando o Diagnóstico Médico
Este projeto visa o desenvolvimento de um sistema robusto de apoio ao diagnóstico por imagens (CliniCAD) que busca a aproximação dos sistemas CBIR à realidade médica por meio da inclusão de parâmetros perceptuais do especialista médico nas etapas de processamento de imagens, extração de características, consulta por similaridade e a etapa opcional de Realimentação por Relevância. Tais parâmetros são obtidos por meio de entrevistas com os especialistas e acompanhamento das atividades de análise e laudo dos exames. Serão utilizados perfis dos especialistas de modo a tornar o sistema mais próximo do que o especialista busca, conseguindo desse modo contornar o problema de lacuna semântica (?semantic gap?). Serão desenvolvidas técnicas de mineração de imagens e de textos (para integrar os laudos às imagens), e serão utilizadas técnicas de visualização de informação como uma ferramenta de apoio à calibração dos algoritmos e métodos implementados. Os resultados serão avaliados por meio de um protótipo que será utilizado no Centro de Ciências de Imagens e Física Médica do Hospital das Clínicas de Ribeirão Preto. O sistema será disponibilizado para utilização pela comunidade da área.
Membro: Agma Juci Machado Traina.
20.   2012-2012. Projeto NAP - PRP/USP "Núcleo de Apoio à Pesquisa de Aprendizado de Máquina em Análise de Dados"
Este projeto visa a criação do Núcleo de Apoio à Pesquisa de Aprendizado de Máquina em Análise de Dados, NAP-AMAD. O principal objetivo do NAP-AMAD é o estabelecimento de um centro interdisciplinar e multidisciplinar de excelência no uso de Aprendizado de Máquina (AM) em análise de dados em São Paulo, Brasil, de reconhecimento internacional. O centro deve estimular colaborações de pesquisa e desenvolvimento entre universidade e empresas ou instituições governamentais cujos dados podem ser analisados através de técnicas de AM. O NAP-AMAD é composto por docentes, pesquisadores e estudantes da Universidade de São Paulo e de diversas outras universidades e centros de Pesquisa, do Brasil e do exterior. O NAP-AMAD será baseado no Instituto de Ciências Matemáticas e de Computação da Universidade de São Paulo (ICMC / USP). Os integrantes do ICMC / USP estão listados abaixo.
Membro: João Luís Garcia Rosa.
21.   2012-2012. Projeto Universal - Consultas por Similaridade em Documentos sob Múltiplas Perspectivas
Existe hoje uma tendência mundial em se estudar operadores de busca por similaridade mais elaborados e consultas envolvendo mais de um centro de consulta . Para cada novo algoritmo, são desenvolvidas técnicas de implementação que visam conseguir execuções mais eficientes e permitam a criação de ferramentas de análise e programas nos domínios de aplicação que precisam recuperar dados complexos. No Entanto, tem sido muito pouco tratado o significado de similaridade entre objetos que são compostos por um ou mais atributos complexos, como é o caso de documentos que incorporam imagens, como por exemplo exames médicos com imagens. Este projeto visa trabalhar nessa lacuna.
Membro: Robson Leonardo Ferreira Cordeiro.
Existe hoje uma tendência mundial em se estudar operadores de busca por similaridade mais elaborados e consultas envolvendo mais de um centro de consulta . Para cada novo algoritmo, são desenvolvidas técnicas de implementação que visam conseguir execuções mais eficientes e permitam a criação de ferramentas de análise e programas nos domínios de aplicação que precisam recuperar dados complexos. No Entanto, tem sido muito pouco tratado o significado de similaridade entre objetos que são compostos por um ou mais atributos complexos, como é o caso de documentos que incorporam imagens, como por exemplo exames médicos com imagens. Este projeto visa trabalhar nessa lacuna.
Membro: Caetano Traina Junior.
22.   2012-2012. Wireless Bug-Sensor: Wireless Sensors to Enable Precision Agriculture and Increase Food Yields in Developing Countries
The project objective is the development of an important tool for farmers worldwide: tiny, inexpensive sensors that can automatically count and classify the insects in the field. This technology then translates the information and sends the farmer a once-a-day text message with instructions on the type of intervention necessary and a map of the isolated locations where action is needed. This method allows farmers a more targeted approach than mass intervention, reducing costs for labor and pesticides.
Membro: Gustavo Enrique de Almeida Prado Alves Batista.

2011

1.   2011-2011. Agrupamento baseado em Wavelets para fluxos contínuos de dados
Recentemente, os avanços tecnológicos aumentaram a capacidade de geração e captura de dados nos mais diversos setores da sociedade. Esses dados passaram a constituir fluxos contínuos, os quais precisam ser processados para que seja extraído conhecimento útil. Essa necessidade motivou a criação da área de mineração em fluxos contínuos de dados, que se diferencia por impor restrições à quantidade de memória e tempo disponíveis aos algoritmos, devido ao enorme volume de dados gerados de forma contínua. Em 2006, a Sociedade Brasileira de Computação (SBC) definiu cinco grandes desafios para a pesquisa em computação no Brasil até 2016. O primeiro desafio trata a gestão da informação em grandes volumes de dados, apontando que pesquisas nessa área podem auxiliar cenários de e-learning, e-gov, e-science e, também, no processamento de informações da TV digital, objeto de fortes investimentos do governo brasileiro. Algoritmos de agrupamento têm se mostrado uma abordagem atraente para análise de fluxos contínuos de dados, devido à sua capacidade de geração de modelos sem a necessidade de supervisão humana. Entretanto, os algoritmos existentes para agrupamento em fluxos contínuos consideram somente a similaridade entre padrões por meio de uma função de distância, definida no espaço métrico em que os dados se encontram. Este trabalho assume a hipótese de que analisando as frequências que compõem os padrões observados, por meio da transformada Wavelet, é possível melhor modelá-los. Nesse sentido, este projeto visa propor um novo agrupador para fluxos contínuos de dados, que considera não somente a distância entre padrões, mas também as frequências que os compõem. Espera-se obter, de maneira eficiente, uma melhor qualidade no agrupamento dos dados.
Membro: Rodrigo Fernandes de Mello.
2.   2011-2011. Análise de Influências Provenientes da Tomada de Decisões Centralizadas e Distribuídas no Escalonamento de Processos
Dúvidas sobre a melhor maneira para a tomada de decisões de escalonamento em função das características do ambiente, i.e., se centralizada, parcialmente ou totalmente distribuída, recobrem sobre projetistas de ambientes scale-out. Essas dúvidas estão, principalmente, ligadas a aspectos como: simplicidade de implementação, custos envolvidos na obtenção de informações sobre recursos e processos, propagação de decisões, e impactos sobre a disponibilidade de serviços. Nesse sentido, este projeto de pesquisa visa quantificar essas influências a fim de mapear as abordagens mais adequadas para a tomada de decisões em ambientes scale-out de diferentes escalas e topologias. Resultados provenientes podem, também, ser aplicados a outros aspectos decisórios em computação distribuída, bem como auxiliar na compreensão desses aspectos em outros cenários.
Membro: Rodrigo Fernandes de Mello.
3.   2011-2011. Desenvolvimento de Técnicas para Personalização de Acesso em Bibliotecas Digitais de Grande Porte

Membro: Robson Leonardo Ferreira Cordeiro.

Membro: Caetano Traina Junior.
4.   2011-2011. Idosos e a Descoberta da Interação com Tecnologias de Informação e Comunicação
Este projeto teve por objetivo propiciar a uma parte da população idosa de São Carlos, o contato com Tecnologias da Informação e Comunicação de última geração, como celulares sensíveis ao toque, TVs digitais, tablets e computadores pessoais. Além de proporcionar aos idosos uma experiência positiva e agradável que atenue possíveis apatias causadas pela inexperiência ou experiências passadas frustrantes, amortizar o medo de danificar o equipamento e estimular a reutilização dessas tecnologias; os pesquisadores da área de computação envolvidos buscavam colher, junto aos idosos, requisitos para o desenvolvimento e/ou aperfeiçoamento das tecnologias utilizadas. Com a ciência e a parceria da Prefeitura Municipal de São Carlos, este projeto contou com a participação de idosos do Centro de Referência de Assistência Social (CRAS), do bairro de Santa Felícia. A implementação deste projeto foi ainda uma forma de iniciar um processo de inclusão digital e de se aproximar do público idoso, entretê-los e mostrar que a tecnologia pode ser utilizada como aliada nas experiências do dia a dia.
Membro: Kamila Rios da Hora Rodrigues.
5.   2011-2011. Mineração visual analítica de grandes bases de dados auxiliando a detecção de eventos extremos agrometeorológicos: aplicações em climatologia
O uso de técnicas de análise visual de dados é uma necessidade que emergiu junto com a era da informação. No entanto, tais técnicas possuem limites ditados pelas características de seus esquemas visuais. Uma das linhas de trabalho promissoras para se expadir suas possibilidades é a combinação de tais técnicas com o processamento analítico advindo da disciplina de mineração de dados. Esta combinação já foi observada na literatura, todavia, trabalhos anteriores são de caráter eventual e com restrições de aplicação. Neste trabalho propõe-se a inovação denominada processo convergente de mineração visual de dados, uma proposta inédita que aproveita mutuamente técnicas de análise, visuais e analíticas. Uma inovação que será aplicada a um domínio de interesse social e econômico: dados agrometeorológicos (de satélite e de campo) sobre problemas climatológicos em regiões de cultivo de cana-de-açúcar. O trabalho deve permitir a geração de contribuições teóricas e práticas, validadas e consolidadas sobre o ambiente de pesquisas da Embrapa/Cepagri de Campinas
Membro: José Fernando Rodrigues Júnior.
6.   2011-2011. Monitoramento Biológico pelo Tamanho Populacional de Colônias de Aves Aquáticas de Topo de Cadeia Alimentar no Pantanal
O objetivo geral desse trabalho é a padronização de uma metodologia para monitorar populações das colônias reprodutivas de Mycteria americana do Pantanal mato-grossense, baseada em estimativas do tamanho populacional e de tamanho efetivo da população. Com esse modelo, proposto para uma espécie chave que ocupa topo de cadeia alimentar e é sensível a distúrbios ambientais, pretende-se testar a aplicação dessa metodologia a qual poderá ser estendida a outras espécies animais com características semelhantes.
Membro: João do Espirito Santo Batista Neto.
7.   2011-2011. Personalização de Acesso em Bibliotecas Digitais de Grande Porte com Documentos Complexos e Heterogêneos
Este projeto visa o desenvolvimento de conceitos para aumentar a interatividade em grandes bibliotecas digitais, de maneira a proporcionar uma interação mais agradável e mais efetiva do usuário com o sistema, explorando aspectos de personalização do ambiente de navegação em uma biblioteca ou numa coleção delas. Esses conceitos serão implementados em bibliotecas reais disponibilizadas pela USP, inclusive as que demandam tratamento de dados complexos e recuperação por conteúdo.
Membro: Robson Leonardo Ferreira Cordeiro.
Este projeto visa o desenvolvimento de conceitos para aumentar a interatividade em grandes bibliotecas digitais, de maneira a proporcionar uma interação mais agradável e mais efetiva do usuário com o sistema, explorando aspectos de personalização do ambiente de navegação em uma biblioteca ou numa coleção delas. Esses conceitos serão implementados em bibliotecas reais disponibilizadas pela USP, inclusive as que demandam tratamento de dados complexos e recuperação por conteúdo.
Membro: Caetano Traina Junior.
8.   2011-2011. Preparação para a Olímpiada Brasileira de Robótica

Membro: Roseli Aparecida Francelin Romero.
9.   2011-2011. Projeto 1:VarSimDNS - Variações de Operadores de Consultas por Similaridade para Melhor Qualidade de Respostas

Membro: Caetano Traina Junior.
10.   2011-2011. Segmentação de Imagens de alta dimensão por redes complexas
A segmentação de imagens por meio de algoritmos de detecção de comunidades, baseados em modelos de redes complexas, tem se apresentado como uma alternativa aos modelos mais tradicionais, mas sofrem com o problema da alto tempo computacional. Este projeto visa investigar mecanismos que possibilitem reduzir o custo computacional no processo de segmentação por meio da definição de superpixeis.
Membro: João do Espirito Santo Batista Neto.
11.   2011-2011. Sistema de múltiplos classificadores em problemas de desbalanceamento de classes e grandes conjuntos de dados
Métodos de classificação podem falhar ao lidar com dois tipos de problemas comuns em aplicações reais: conjuntos de dados muito grandes, e o desbalanceamento de classes nos dados. Bases de dados com muitos elementos são cada vez mais comuns pela facilidade tecnológica em se adquirir e armazenar dados e pela natureza de certas aplicações como por exemplo em dados de transações financeiras, acesso a redes e bioinformática. Sistemas de múltiplos classificadores tem potencial tanto para paralelizar ou distribuir o processamento, quanto para permitir a subamostragem do conjunto de treinamento, tornando viável o uso de grandes bases de dados. Métodos de múltiplos classificatores também tem potencial para minimizar o desbalanceamento de classes, por meio de métodos de amostragem aliados à técnicas de Boosting. Esse projeto visa estudar os dois problemas citados e oferecer soluções baseadas em sistemas de múltiplos classificadores, com aplicações em diversas áreas.
Membro: Moacir Antonelli Ponti.
12.   2011-2011. Sistema Tutorial Interativo e on-line para Treinamento do processo de Importação de bens e materiais para pesquisa apoiado pelo CNPq
TIP - Sistema Tutorial Interativo e on-line para Treinamento do processo de Importação de bens e materiais para pesquisa apoiado pelo CNPq
Membro: Renata Pontin de Mattos Fortes.
13.   2011-2011. Temático-Pronex: Modelos e métodos de e-Science para ciências da vida e agrárias
A ciência moderna é crescentemente interdisciplinar e intensiva em dados. Na área de ciências da vida, por exemplo, com o surgimento de plataformas de alto desempenho para análise de imagens e estudos genômicos, o gargalo não está mais na aquisição de dados, mas sim no seu armazenamento, processamento, análise e visualização. Este cenário levou ao surgimento de um novo campo de pesquisa - eScience - que combina pesquisa avançada em computação e em modelagem matemática para permitir e acelerar pesquisa em outros domínios do conhecimento, desde as ciências exatas até as humanidades e artes. A eScience envolve a chamada "computação centrada em dados" (data-intensive computing), com a busca de soluções para gerenciamento de grandes volumes de dados produzidos por (e para) experimentos científicos, para que a descoberta científica não venha a ser detida pelo "dilúvio de dados". Este projeto visa a criação de uma rede colaborativa de eScience para acelerar pesquisa avançada em ciências da vida (biologia, medicina, oceanografia) e ciências agrárias. Está estruturado em tomo de cinco linhas de pesquisa - biologia de sistemas, planejamento de safras, computação visual, modelagem matemática e bancos de dados. Dentro dessas linhas, serão tratadas questões em aberto associadas às principais componentes de um ambiente de pesquisa em eScience: armazenamento, processamento, análise e visualização de grandes volumes de dados científicos. Os pesquisadores principais têm histórico de cooperação e coordenação de projetos nessas linhas. Questões de interoperalidade permeiam todo o projeto.
Membro: Fernando Vieira Paulovich.
14.   2011-2011. TIP-CNPq: Sistema Tutorial Interativo e Online para Treinamento do Processo de Importação de Bens e Materiais para Pesquisa apoiado pelo CNPq

Membro: Elaine Parros Machado de Sousa.
15.   2011-2011. Tratamento de Problemas Críticos e Aplicações Inovadoras de Visualização em Larga Escala (Universal)
Este projeto se insere no campo de Visualização de Dados e Analítica Visual, ambos os campos preocupados em propor alternativas para análise de dados complexos, multivalorados, e volumosos. Do ponto de vista da Visualização Computacional, nosso grupo de pesquisa vem desenvolvendo, ao longo de muitos anos, técnicas cujo objetivo é apoio à análise de dados multidimensionais, isto é, aqueles definidos por muitas variáveis ou atributos. O progresso da área levou a novas técnicas que são capazes de tratar dados cada vez mais numerosos com precisão. Muitos dos problemas relacionados a esta área, entretanto, ainda representam desafios em aberto. Este projeto também envolve problemas em vários outros campos, tais como análise de imagens, bioinformática, nanotecnologia e análise de redes sociais. Um objetivo objetivo do projeto é avançar o estágio de desenvolvimento de técnicas previamente desenvolvidas para o problema de forma a apoiar a solução de três problemas críticos: a escalabilidade do número de elementos tratados, o paradigma de visualização e a adaptabilidade para dados não numéricos. O segundo objetivo do projeto é adaptar tais técnicas para aplicões estratégicas para as quais nenhuma solução até o momento é satisfatória para o usuário final, isto é, o analista que precisa extrair conhecimento relevante dos dados. Este projeto pretende apresentar soluções computacionais para avançar no tratamento desses problemas, e testar as abordagens para dados de imagens, bio-sensores, sequências genéticas, redes sociais, comércio eletrônico e patentes, vários deles fornecidos através de parcerias em início ou mais avançadas. Este projeto também envolve problemas em vários outros campos, tais como análise de imagens, bioinformática, nanotecnologia e análise de redes sociais. O objetivo principal do projeto é avançar o estágio de desenvolvimento de técnicas previamente desenvolvidas para o o tratamento de dados multidimensionais complexos e de natureza variada, de forma a apoia
Membro: Fernando Vieira Paulovich.
Este projeto se insere no campo de Visualização de Dados e Analítica Visual, ambos os campos preocupados em propor alternativas para análise de dados complexos, multivalorados, e volumosos. Do ponto de vista da Visualização Computacional, nosso grupo de pesquisa vem desenvolvendo, ao longo de muitos anos, técnicas cujo objetivo é apoio à análise de dados multidimensionais, isto é, aqueles definidos por muitas variáveis ou atributos. O progresso da área levou a novas técnicas que são capazes de tratar dados cada vez mais numerosos com precisão. Muitos dos problemas relacionados a esta área, entretanto, ainda representam desafios em aberto. Este projeto também envolve problemas em vários outros campos, tais como análise de imagens, bioinformática, nanotecnologia e análise de redes sociais. Um objetivo objetivo do projeto é avançar o estágio de desenvolvimento de técnicas previamente desenvolvidas para o problema de forma a apoiar a solução de três problemas críticos: a escalabilidade do número de elementos tratados, o paradigma de visualização e a adaptabilidade para dados não numéricos. O segundo objetivo do projeto é adaptar tais técnicas para aplicões estratégicas para as quais nenhuma solução até o momento é satisfatória para o usuário final, isto é, o analista que precisa extrair conhecimento relevante dos dados. Este projeto pretende apresentar soluções computacionais para avançar no tratamento desses problemas, e testar as abordagens para dados de imagens, bio-sensores, sequências genéticas, redes sociais, comércio eletrônico e patentes, vários deles fornecidos através de parcerias em início ou mais avançadas. Este projeto também envolve problemas em vários outros campos, tais como análise de imagens, bioinformática, nanotecnologia e análise de redes sociais. O objetivo principal do projeto é avançar o estágio de desenvolvimento de técnicas previamente desenvolvidas para o o tratamento de dados multidimensionais complexos e de natureza variada, de forma a ap
Membro: Alneu de Andrade Lopes.
16.   2011-2011. Um Método Genérico para Codificação de Vídeos Estereoscópicos
O objetivo do projeto é desenvolver um codificador para vídeos estereoscópicos (vídeos 3D) que produza conteúdo que possa ser apresentado independente do método de visualização utilziado pelo usuário (anaglífico, por luz polarizada, shutter ou autoestereosçopico).
Membro: Rudinei Goularte.

2010

1.   2010-2010. Acessibilidade na Evolução de Aplicações Web Interativas: diretrizes e ferramentas
There is a growing number of people who deal with the use of informatics in everyday tasks on the Internet and its broad range of services. The phenomenon has boosted the development of solutions for attending the users?demands, their requirements for easier interactions, adopting recent technological innovations. Web Accessibility aims at enabling users using any agent (software or hardware that retrieves and serializes Web content) to understand and interact with the content of a website, regardless of disabilities or other barriers. We emphasize accessibility during the development and evolution of interactive applications available on the Web, considering both the perspectives of the users of Web content (readers and authors), and the developers responsible for the engineering of such applications in general. And in particular, we aim at those developers have proposals for new ways of interactions combining natural modes - with Multimodal Interfaces, empowered by technological innovations. As a result, we hope to contribute to advancing the state of the art of current guidelines, as well as proposing tools and software artifacts if the form of models that support accessibility. It is worth noticing that our studies aim to disseminate improvements that may be made in the development of Web applications and enhance the accessibility of its contents to the diversity of end users.
Membro: Renata Pontin de Mattos Fortes.
2.   2010-2010. Annotation of Radiological Images using the Semantic Web for Scientific and Clinical Collaboration
This work is part of a larger project, the Annotation and Image Markup (AIM) Project of the Laboratory of Imaging Informatics (Radiology Dept.) at Stanford University, which aims to create a medical knowledge base on radiological images for identification, monitoring and reasoning about tumor lesions in cancer research and in doctors' offices. The specific problem, which will be addressed in this work, is that most of the semantic information about radiological images are not captured and related to them using terms of biomedical ontologies and standards such as DICOM and HL7, which makes it impossible for them to be automatically evaluated by computers, searching medical files in hospitals, etc. To solve this, radiologists need an easy, intuitive and accessible tool to add this information. In this work, a web tool for creating these annotations, called electronic Physician Annotation Device (ePad), is being developed, in conjunction with the Laboratory of Imaging Informatics (Dr. D. Rubin). The E-Pad will allow the recovery of medical images, such as the images available in hospital information systems, the outline of the contours of the tumor lesions, the association of ontological terms to these markings, and the saving of this information in a knowledge base. The main challenges of this work involve the application of intuitive interfaces and their implementation in a Web browser and the use of Web technologies for data communication, through Web Services, in an environment that allows collaboration between researchers, students and professionals in the radiology area and oncology.
Membro: Dilvan de Abreu Moreira.
3.   2010-2010. Aplicação de Técnicas de Aprendizado de Máquina e Linguística Computacional para Tratamento de Textos
A crescente popularização da rede mundial na última década tornou evidente uma possibilidade antes restrita apenas aos profissionais da informação, principalmente bibliotecários: a busca de informação de interesse em grandes repositórios de textos. Este fato levou a comunidade científica e empresarial a buscar métodos que tornassem esta busca ao mesmo tempo efetiva e rápida. A proposta deste projeto é aplicar técnicas de processamento de línguas naturais e aprendizado de máquina para atender às necessidades de busca de informação textual na internet, melhorando as ferramentas existentes. Teorias da Lingüística Computacional devem ser empregadas para alcançar este objetivo.
Membro: João Luís Garcia Rosa.
4.   2010-2010. CLARIN - Common Language Resources and Technology Infrastructure
CLARIN is committed to establish an integrated and interoperable research infrastructure of language resources and its technology.
Membro: Thiago Alexandre Salgueiro Pardo.
5.   2010-2010. Counting and classifying insects with ultra-cheap sensors
We propose to build ultra cheap (less than $5) sensors that can count and distinguish between various kinds of insects (including malaria vectors) from a large distance. Our work has the potential to revolutionize epidemiological modeling by proving accurate real-time counts of vectors down to the species/sex level, thus allowing for more effective vector control.
Membro: Gustavo Enrique de Almeida Prado Alves Batista.
6.   2010-2010. Detecção, rastreamento e análise automática de leucócitos rolantes e aderidos em imagens de vídeo de microscopia intravital
Este projeto visa detectar leucócitos e acompanhar sua dinâmica comportamental como forma de estudar suas relações com a injeção de drogas em animais.
Membro: Rodrigo Fernandes de Mello.
7.   2010-2010. POPULARIZAÇÃO DA ROBÓTICA MÓVEL

Membro: Roseli Aparecida Francelin Romero.
8.   2010-2010. PROCAD-NF - Explorando novas fronteiras na TV Digital Interativa (xTVD)
O objetivo principal do projeto é a formação de recursos humanos especializados e proporcionar a formação de uma rede de cooperação entre pesquisadores de diferentes regiões do País. Os objetivos específicos são: ? Consolidar o Programa de Pós-graduação em Sistemas e Computação (PPGComp) da UNIFACS ? Promover colaboração sinergética entre os pesquisadores participantes ? Fortalecer todos os programas de pós-graduação envolvidos no que tange à formação de recursos humanos em TVDI ? Mobilizar docentes e discentes para a pesquisa na área de multimídia e hipermídia, em especial, para a área de TVDI ? Ampliar a qualificação da produção acadêmica do programa da UNIFACS ? Aumentar o número de publicações e protótipos de pesquisa de qualidade produzidos nessa área pela comunidade acadêmica brasileira ? Avançar o estado da arte nas áreas envolvidas, em particular: gestão, produção, geração, veiculação, interatividade e educação a distância na TV digital ? Inserir os pesquisadores e alunos da UNIFACS na rede de cooperação do ICMC e da UFSCar, em particular com pesquisadores do CWI, Netherlands, que possuem atuação destacada na área do projeto Com relação à área específica de TV Digital Interativa, espera-se que este projeto contribua para o desenvolvimento e a avaliação de serviços e aplicações para essa área, com foco nas questões relacionadas à interatividade, sincronização e estruturação do conteúdo multimídia. Os serviços e aplicações para TV Digital Interativa a serem desenvolvidos buscam explorar os diferentes recursos dessa nova plataforma multimídia convergente para criar e reproduzir conteúdo estruturado de forma não-linear e com possibilidade de interação efetiva dos usuários com o conteúdo apresentado. Um dos grandes desafios do projeto é adaptar processos de desenvolvimento, métodos, modelos e técnicas utilizados na construção de aplicações computacionais (em especial, aquelas ligadas à multimídia e hipermídia) para a plataforma TVDI.
Membro: Rudinei Goularte.
9.   2010-2010. Projeto Universal - Consultas por Similaridade em Imagens Médicas: da Viabilidade Clínica à Prática do Auxílio ao Diagnóstico Médico ? Aplicações em um Hospital Escola
Os sistemas de informação para medicina têm por objetivo disponibilizar a informação necessária ao médico de modo rápido e preciso visando assim melhorar a qualidade do cuidado e tratamento de pacientes. Em radiologia, a aplicação de técnicas de recuperação de imagens por conteúdo (Content-based Image Retrieval- CBIR) incorporadas aos Sistemas de Comunicação e Armazenamento de Imagens (Picture Archiving and Communication Systems - PACS) proporciona um avanço na recuperação de imagens armazenadas, antes vinculadas a um identificador do paciente ou de um exame. Com essa nova abordagem as buscas passam a ser realizadas por meio de comparações diretas entre imagens por meio de seus descritores pictóricos, possibilitando efetuar buscas por similaridade e abrindo novos caminhos para utilização do computador e das imagens médicas em atividades de auxílio ao diagnóstico. Este projeto visa permitir integrar a percepção do especialista do que é similar, no processo de recuperação de imagens baseada em seu conteúdo. Assim, deve-se diminuir um dos principais problemas dos sistemas CBIR, quando aplicados em ambientes de apoio ao diagnóstico (Computer-Aided Diagnosis - CAD), que é a lacuna semântica (semantic gap). Tal lacuna origina-se do fato que medidas de similaridade sobre os descritores das imagens, baseados na distribuição de cores/níveis de intensidade, textura e formas, em geral não possuem correlação direta com a semântica subjetiva humana. A idéia principal é desenvolver um mecanismo automático de otimização de consulta por similaridade baseado em parâmetros de percepção levantados pelos próprios radiologistas. Esse método fará uma escolha automática de quais os parâmetros perceptuais deverão ser considerados relevantes no processamento da consulta. Esses parâmetros serão detectados automaticamente, através de mineração de palavras-chave nas justificativas do pedido de exame, dos dados contidos no cabeçalho DICOM das imagens sob processamento.
Membro: Robson Leonardo Ferreira Cordeiro.
10.   2010-2010. TIENA - Tecnologia Inovadoras em mineração de textos para a Espacialização de Notícias Agrícolas - piloto cana-de-açúcar
Este projeto tem o objetivo de organizar notícias agrícolas sobre uma dada cultura, por meio de técnicas inovadoras em mineração de textos, em três categorias: tópicos ou assuntos, cobertura temporal e cobertura espacial. A cobertura temporal visa em primeiro plano um estudo da evolução daquele tópico ou assunto em relação aos demais, em intervalos de tempo, ou seja, como foi a tendência de dispersão desse tópico ao longo do tempo e futuramente como ela se relaciona aos modelos de previsão de safra. A cobertura espacial visa compreender qual é a cobertura geográfica daquela notícia, podendo ser de caráter geral (nacional) ou relativa a alguma micro ou macro-região geográfica, e, também futuramente poder-se-á analisar esse fator junto aos modelos de previsão de safra.
Membro: Ricardo Marcondes Marcacini.
11.   2010-2010. TIENA- Tecnologias Inovadora em Mineração de textos para espacialização de noticias agrícolas-piloto cana de açucar
Este projeto tem o objetivo de organizar notícias agrícolas sobre uma dada cultura, por meio de técnicas inovadoras em mineração de textos, em três categorias: tópicos ou assuntos, cobertura temporal e cobertura espacial. A cobertura temporal visa em primeiro plano um estudo da evolução daquele tópico ou assunto em relação aos demais, em intervalos de tempo, ou seja, como foi a tendência de dispersão desse tópico ao longo do tempo e futuramente como ela se relaciona aos modelos de previsão de safra. A cobertura espacial visa compreender qual é a cobertura geográfica daquela notícia, podendo ser de caráter geral (nacional) ou relativa a alguma micro ou macro-região geográfica, e, também futuramente poder-se-á analisar esse fator junto aos modelos de previsão de safra, para avaliar se o fator penaliza os modelos ou não. Como essas notícias são altamente dinâmicas, pois são, no mínimo, diárias, devem ser tratadas em tempo real; logo, os tópicos também devem ter uma evolução bastante dinâmica, que deve ser considerada em seu tratamento. Obter essa organização de dados e atualizá-la em tempo real visa a uma ação futura de analisar séries temporais dessas notícias; e, então fazer a análise cruzada desses modelos com os modelos de previsão de safra obtidos por meio de fatores agro-ambientais. Avalia-se, a princípio, que essa última etapa seja um trabalho para alguns anos, e, que deva ser feita para várias culturas; mas, que de qualquer forma, só pode ser iniciado após as primeiras etapas. Assim, o escopo da proposta deste projeto, é englobar todas as etapas desse processo até a formação da base de dados tópico-espaço-temporal; com as notícias categorizadas em três dimensões: conceitual (tópicos), espacial e temporal. E, para isso, serão desenvolvidas tecnologias em mineração de textos para a extração e identificação de tópicos altamente dinâmicos, extração de informação temporal dos textos e classificação dos textos em relação a sua cobertura espacial.
Membro: Solange Oliveira Rezende.
12.   2010-2010. Time Series Classification Algorithms Applied to Embedded Systems
Integrating sequential and temporal data into the Data Mining process is of one of the most important challenges in Machine Learning. In this project, we are mostly interested in developing time series classification algorithms. The k-nearest neighbor algorithm is a common approach to time series classification. This algorithm has been known to perform well, especially when allied to distance measures that can deal with time lags, such as the Dynamic Time Warping. However, the classical k-nearest neighbor algorithm is computationally intensive. One may solve this problem by using indexes to increase the efficiency of similarity queries. This project proposes to investigate indexing algorithms that have the properties of anyspace algorithms. Anyspace algorithms are able to deal with different amounts of memory, in such a way that the algorithm performance depends directly on the amount of available memory. Such algorithms allow specifying the amount of memory based on the performance required by an embedded application. This project also deals with classification methods based on induction of classification rules. An approach to induce rules from time series data is the identification of motifs. Motifs are frequently occurring subsequences that usually represent a phenomenon of interest. A convenient aspect of rules is the ease one finds in writing a procedural program which implements the rule's logic with little memory and processing resources. The algorithms developed in this post-doctoral stage will be applied in insect control and monitoring using devices developed by ISCA Technologies.
Membro: Gustavo Enrique de Almeida Prado Alves Batista.
13.   2010-2010. Uma abordagem orientada a sistemas para otimização de escalonamento de processos em grades computacionais
Grades computacionais são ambientes para compartilhamento de recursos heterogêneos e distribuídos, os quais podem ser utilizados de maneira cooperativa para resolver problemas de alta demanda computacional. Esses aspectos motivaram a adoção de grades, no entanto, outros problemas surgiram com a implementação desses ambientes, tais como a proposta de padrões para protocolos de comunicação, aspectos relacionados à segurança, consistência de dados e escalonamento de processos. No contexto de escalonamento de processos, diversas políticas foram propostas, as quais tipicamente consideram a demanda de aplicações por recursos computacionais. Em geral, esses trabalhos visam reduzir o tempo de execução de tarefas. Essas abordagens, denominadas orientadas a aplicações, não avaliam, contudo, a eficiência de utilização e rendimento dos recursos disponíveis. Essa limitação motivou novos estudos no sentido de propor políticas orientadas a recursos, as quais, por sua vez, avaliam a subtilização dos mesmos. Recentemente, alguns trabalhos sugerem a combinação de ambas abordagens, dando origem às políticas orientadas a sistemas. Essas políticas, atualmente, consideram combinações e simplificações desses objetivos conflitantes, não os atendendo simultaneamente. Essa restrição motiva este plano de pesquisa a propor uma abordagem orientada a sistemas e multiobjetivo que avalia, simultaneamente, objetivos de técnicas orientadas a aplicações e a recursos por meio de suas dinâmicas comportamentais. A abordagem proposta considera séries temporais para descrever a dinâmica comportamental de processos e recursos, as quais serão utilizadas para caracterizar tendências e situações futuras, de modo a encontrar ótimos globais estáveis e, consequentemente, contribuir para o aumento de desempenho de execução de aplicações sem, contudo, subtilizar recursos.
Membro: Rodrigo Fernandes de Mello.
14.   2010-2010. Visualização Exploratória de Dados Volumétricos Multidimensionais (CAPES PROBRAL/DAAD)
(Projeto de pesquisa em conjunto com o grupo de pesquisa liderado pelo Prof. Lars Linsen, da Jacobs University, Alemanha - CAPES/DAAD n. 344/10 Diversos domínios de aplicação geram volumes de dados multidimensionais, i.e., dados multivariados vinculados a um posicionamento espacial. É o caso de diversos fenômenos físicos que são medidos ou simulados em áreas como física ou química computacional, geociências, e medicina, em que múltiplos valores escalares, vetoriais ou tensoriais são adquiridos ou coletados sobre um domínio espacial definido, ao longo do tempo. Por outro lado, os métodos clássicos de visualização científica tratam, predominantemente, da exploração de dados volumétricos unidimensionais, i.e., as técnicas geram visualizações de um único campo escalar, ou de um campo vetorial ou tensorial. Caso múltiplos campos de dados estejam envolvidos no problema, o usuário precisa explorar múltiplos volumes de dados, interagindo com múltiplas representações visuais de natureza distinta. Nosso objetivo é tratar essa limitação, abordando o problema da análise exploratória de volumes de dados multidimensionais, i.e., em que múltiplas variáveis devem ser analisadas conjuntamente. Para isso, utilizaremos resultados recentes em ´visual analytics´, que considera a integração entre técnicas de visualização e técnicas analíticas para apoiar tarefas exploratórias de análise de dados. As equipes, brasileira e alemã, já tem investigado esse problema. Resultados recentes sinalizam que a integração de técnicas de mineração visual de dados a abordagens clássicas de visualização científica podem ampliar significativamente os recursos oferecidos a usuários para a análise de dados científicos multivariados. Problemas específicos a serem tratados com essa abordagem integrada incluem tarefas de classificação de imagens médicas e de segmentação de volumes de dados médicos.
Membro: Maria Cristina Ferreira de Oliveira.
15.   2010-2010. Visualização Exploratória de Dados Volumétricos Multidimensionais (CAPES/DAAD)
Projeto de pesquisa em conjunto com o grupo de pesquisa liderado pelo Prof. Lars Linsen, da Jacobs University, Alemanha - CAPES/DAAD n. 344/10 Diversos domínios de aplicação geram volumes de dados multidimensionais, i.e., dados multivariados vinculados a um posicionamento espacial. É o caso de diversos fenômenos físicos que são medidos ou simulados em áreas como física ou química computacional, geociências, e medicina, em que múltiplos valores escalares, vetoriais ou tensoriais são adquiridos ou coletados sobre um domínio espacial definido, ao longo do tempo. Por outro lado, os métodos clássicos de visualização científica tratam, predominantemente, da exploração de dados volumétricos unidimensionais, i.e., as técnicas geram visualizações de um único campo escalar, ou de um campo vetorial ou tensorial. Caso múltiplos campos de dados estejam envolvidos no problema, o usuário precisa explorar múltiplos volumes de dados, interagindo com múltiplas representações visuais de natureza distinta. Nosso objetivo é tratar essa limitação, abordando o problema da análise exploratória de volumes de dados multidimensionais, i.e., em que múltiplas variáveis devem ser analisadas conjuntamente. Para isso, utilizaremos resultados recentes em ´visual analytics´, que considera a integração entre técnicas de visualização e técnicas analíticas para apoiar tarefas exploratórias de análise de dados. As equipes, brasileira e alemã, já tem investigado esse problema. Resultados recentes sinalizam que a integração de técnicas de mineração visual de dados a abordagens clássicas de visualização científica podem ampliar significativamente os recursos oferecidos a usuários para a análise de dados científicos multivariados. Problemas específicos a serem tratados com essa abordagem integrada incluem tarefas de classificação de imagens médicas e de segmentação de volumes de dados médicos.
Membro: Fernando Vieira Paulovich.
16.   2010-2010. VolVis: Explorando Grandes Conjuntos de Dados Volumétricos Multi-Dimensionais Variantes no Tempo Usando Projeções
Projeções multi-dimensionais são frequentemente empregadas para a criação de representações gráficas de conjuntos de dados abstratos que reflitam algum padrão estrutural existente entre as instâncias de dados multi-dimensionais. Dessa forma, as habilidade visuais humanas podem ser empregadas no processo exploratório dos dados, apoiando atividades de identificação e extração de padrões e anomalias, acelerando a interpretação da informação subjacente. Este projeto propõe a definição de uma abordagem baseada em projeções multi-dimensionais para análise de conjuntos de dados volumétricos, que podem apresentar a característica de serem variante no tempo, suportando tarefas que envolvam a descoberta e seleção de estruturas de interesse a serem visualizadas. Como resultado espera-se a definição de um arcabouço para a análise de dados volumétricos da área médica, como as fibras neuronais, e para a análise de conjuntos variantes no tempo, como os resultantes de simulações de fenômenos naturais, aplicações carentes de ferramentas principalmente quando conjuntos de dados de grande porte são considerados.
Membro: Fernando Vieira Paulovich.

2009

1.   2009-2009. [FAPESP] Métodos de Acesso voltados à Melhoria de Desempenho no Processamento de Consultas a Banco de Dados não-Convencionais
Este projeto de pesquisa enfoca a melhoria de desempenho no processamento de consultas a banco de dados não-convencionais. Mais especificamente, o projeto visa propor métodos de acesso voltados à melhoria do desempenho no processamento de consultas a data warehouses geográficos (DWG) e a bancos de dados biológicos. Métodos de acesso tentam reduzir o custo computacional envolvido em buscas eqüenciais, conduzindo a busca a porções do banco nas quais os elementos rmazenados têm alta probabilidade de serem similares ao elemento de consulta e, onseqüentemente, melhorando o desempenho no processamento de consultas. O esafio consiste em propor métodos de acesso voltados à melhoria do desempenho a DWG e a BDB que explorem as características dos dados desses bancos de dados não-convencionais e ofereçam suporte a consultas exatas e por similaridade. Embora já existam trabalhos voltados à indexação de DWG e de BDB, esses trabalhos possuem limitações, tais como alto custo computacional para acessar a estrutura e índice muito volumoso. Este projeto visa propor uma nova estrutura voltada à indexação de DWG, e um novo método de acesso para BDB.
Membro: Cristina Dutra de Aguiar.
2.   2009-2009. AgroDataMine: Desenvolvimento de Métodos e Técnicas de Mineração de Dados para apoiar Pesquisas em Mudanças Climáticas com Ênfase em Agrometeorologia
O aquecimento global e suas conseqüências trazem novos desafios para os pesquisadores do Século XXI. Apesar da comunidade científica não ter dúvidas sobre o aquecimento do planeta, é premente a identificação das causas do aumento da temperatura média global, bem como a quantificação desse aquecimento e suas consequências para os ecossistemas. Modelos matemáticos e estatísticos têm sido empregados para analisar os possíveis cenários futuros e consequentemente uma grande quantidade de dados tem sido gerada. Além disso, o avanço tecnológico tem propiciado melhorias nos diversos sensores utilizados para medições de dados climáticos e de imageamento da superfície terrestre, contribuindo para o aumento na quantidade e complexidade dos dados gerados. As pesquisas envolvendo grande volume e diversidade de dados remete a dois dos Grandes Desafios da Computação: a gestão da informação em grandes volumes de dados e a modelagem computacional de sistemas complexos. Neste contexto, este projeto de pesquisa propõe investigar e desenvolver técnicas e métodos computacionais para analisar os conjuntos de dados complexos utilizados por meteorologistas e agrometeorologistas, para auxiliá-los na pesquisa de impactos das mudanças climáticas na agricultura brasileira. Em linhas gerais, o objetivo deste projeto é desenvolver métodos para analisar os resultados dos modelos regionais de prognóstico de mudanças climáticas e compará-los com medidas reais coletadas pelas estações de superfície, a fim de avaliar a qualidade dos dados gerados e dar subsídios para a calibração dos modelos de previsão. Adicionalmente, pretende-se desenvolver novos métodos para filtrar, analisar e extrair padrões da associação entre dados climáticos e dados extraídos de sensores remotos para auxiliar nas pesquisas agrícolas. O projeto embasa-se na parceria de pesquisadores do Grupo de Bases de Dados e Imagens (GBdI) do ICMC-USP, da Embrapa Informática Agropecuária, do Centro de Pesquisas Meteorológicas e Climáticas.
Membro: Robson Leonardo Ferreira Cordeiro.

Membro: José Fernando Rodrigues Júnior.
O aquecimento global e suas conseqüências trazem novos desafios para os pesquisadores do Século XXI. Apesar da comunidade científica não ter dúvidas sobre o aquecimento do planeta, é premente a identificação das causas do aumento da temperatura média global, bem como a quantificação desse aquecimento e suas consequências para os ecossistemas. Modelos matemáticos e estatísticos têm sido empregados para analisar os possíveis cenários futuros e consequentemente uma grande quantidade de dados tem sido gerada. Além disso, o avanço tecnológico tem propiciado melhorias nos diversos sensores utilizados para medições de dados climáticos e de imageamento da superfície terrestre, contribuindo para o aumento na quantidade e complexidade dos dados gerados. As pesquisas envolvendo grande volume e diversidade de dados remete a dois dos Grandes Desafios da Computação: a gestão da informação em grandes volumes de dados e a modelagem computacional de sistemas complexos. Neste contexto, este projeto de pesquisa propõe investigar e desenvolver técnicas e métodos computacionais para analisar os conjuntos de dados complexos utilizados por meteorologistas e agrometeorologistas, para auxiliá-los na pesquisa de impactos das mudanças climáticas na agricultura brasileira. Em linhas gerais, o objetivo deste projeto é desenvolver métodos para analisar os resultados dos modelos regionais de prognóstico de mudanças climáticas e compará-los com medidas reais coletadas pelas estações de superfície, a fim de avaliar a qualidade dos dados gerados e dar subsídios para a calibração dos modelos de previsão. Adicionalmente, pretende-se desenvolver novos métodos para filtrar, analisar e extrair padrões da associação entre dados climáticos e dados extraídos de sensores remotos para auxiliar nas pesquisas agrícolas. O projeto embasa-se na parceria de pesquisadores do Grupo de Bases de Dados e Imagens (GBdI) do ICMC-USP, da Embrapa Informática Agropecuária, do Centro de Pesquisas Meteorológicas e Climáticas.
Membro: Elaine Parros Machado de Sousa.
O aquecimento global e suas conseqüências trazem novos desafios para os pesquisadores do Século XXI. Apesar da comunidade científica não ter dúvidas sobre o aquecimento do planeta, é premente a identificação das causas do aumento da temperatura média global, bem como a quantificação desse aquecimento e suas consequências para os ecossistemas. Modelos matemáticos e estatísticos têm sido empregados para analisar os possíveis cenários futuros e consequentemente uma grande quantidade de dados tem sido gerada. Além disso, o avanço tecnológico tem propiciado melhorias nos diversos sensores utilizados para medições de dados climáticos e de imageamento da superfície terrestre, contribuindo para o aumento na quantidade e complexidade dos dados gerados. As pesquisas envolvendo grande volume e diversidade de dados remete a dois dos Grandes Desafios da Computação: a gestão da informação em grandes volumes de dados e a modelagem computacional de sistemas complexos. Neste contexto, este projeto de pesquisa propõe investigar e desenvolver técnicas e métodos computacionais para analisar os conjuntos de dados complexos utilizados por meteorologistas e agrometeorologistas, para auxiliá-los na pesquisa de impactos das mudanças climáticas na agricultura brasileira. Em linhas gerais, o objetivo deste projeto é desenvolver métodos para analisar os resultados dos modelos regionais de prognóstico de mudanças climáticas e compará-los com medidas reais coletadas pelas estações de superfície, a fim de avaliar a qualidade dos dados gerados e dar subsídios para a calibração dos modelos de previsão. Adicionalmente, pretende-se desenvolver novos métodos para filtrar, analisar e extrair padrões da associação entre dados climáticos e dados extraídos de sensores remotos para auxiliar nas pesquisas agrícolas. O projeto embasa-se na parceria de pesquisadores do Grupo de Bases de Dados e Imagens (GBdI) do ICMC-USP, da Embrapa Informática Agropecuária, do Centro de Pesquisas Meteorológicas e Climáticas.
Membro: Caetano Traina Junior.
3.   2009-2009. Aperfeiçoamento de uma plataforma de aprendizado de robôs móveis
Este projeto consiste no desenvolvimento de um software para controle de um time de futebol de robôs para a categoria IEEE VSS. Deverá ser construido também o hardware dos robôs e o sistema de controle que integra hardware e software.
Membro: Roseli Aparecida Francelin Romero.
4.   2009-2009. CAPES (Procad-NF) xTVD: Explorando Novas Fronteiras na TV Digital Interativa
A implantação efetiva do serviço de TVDI no Brasil implica em alterações de toda a cadeia produtiva de radiodifusão, através da modernização da infra-estrutura da rede de transmissão de sinais, da produção de seus insumos para esta infra-estrutura (software, equipamentos e componentes) e, finalmente, da pesquisa e do desenvolvimento de novos conteúdos digitais. Os novos conteúdos digitais correspondem, na prática, a aplicações multimídia convergentes que devem satisfazer a uma série requisitos clássicos ligados à sincronização de mídias e à adequação ao contexto. Entretanto, existem problemas específicos da TVDI que devem ser enfrentados: (i) a infra-estrutura é diferente daquela utilizada normalmente em multimídia (computador, Internet, etc); (ii) as aplicações são utilizadas por um público, o qual não está necessariamente acostumado a este tipo de cenário (interatividade, execução de aplicação, atualização de software, etc); (iii) a autoria das aplicações exige a integração de profissionais acostumados à produção audiovisual para TV convencional com profissionais ligados à produção de software; (iv) o conteúdo multimídia deve ser reestruturado de forma a dar suporte aos serviços associados ao mesmo e ao contexto de apresentação [4] ; (v) devem ser definidos modelos e métodos para avaliação
Membro: Maria da Graca Campos Pimentel.
5.   2009-2009. Classificação de textos com redes complexas
A classificação automática de textos em categorias pré-estabelecidas tem despertado grande interesse nos últimos anos devido à necessidade de organização do número crescente de documentos. A abordagem dominante para classificação é baseada na análise de conteúdo dos textos. Nesta tese, investigamos a aplicabilidade de atributos de estilo em tarefas tradicionais de classificação, usando a modelagem de textos como redes complexas, em que os vértices representam palavras e arestas representam relações de adjacência. Estudamos como métricas topológicas podem ser úteis no processamento de línguas naturais, sendo a tarefa de classificação apoiada por métodos de aprendizado de máquina, supervisionado e não supervisionado. Um estudo detalhado das métricas topológicas revelou que várias delas são informativas, por permitirem distinguir textos escritos em língua natural de textos com palavras distribuídas aleatoriamente. Mostramos também que a maioria das medidas de rede depende de fatores sintáticos, enquanto medidas de intermitência são mais sensíveis à semântica. Com relação à aplicabilidade da modelagem de textos como redes complexas, mostramos que existe uma dependência significativa entre estilo de autores e topologia da rede. Para a tarefa de reconhecimento de autoria de 40 romances escritos por 8 autores, uma taxa de acerto de 65~\% foi obtida com métricas de rede e intermitência de palavras. Ainda na análise de estilo, descobrimos que livros pertencentes ao mesmo estilo literário tendem a possuir estruturas topológicas similares. A modelagem de textos como redes também foi útil para discriminar sentidos de palavras ambíguas, a partir apenas de informação topológica dos vértices, evidenciando uma relação não trivial entre sintaxe e semântica. Para algumas palavras, a discriminação com redes complexas foi ainda melhor que a estratégia baseada em padrões de recorrência contextual de palavras polissêmicas. Os estudos desenvolvidos nesta tese confirmam que aspectos de estilo e semânticos influenciam na organização estrutural de conceitos em textos modelados como rede. Assim, a modelagem de textos como redes de adjacência de palavras pode ser útil não apenas para entender mecanismos fundamentais da linguagem, mas também para aperfeiçoar aplicações reais quando combinada com métodos tradicionais de processamento de texto.
Membro: Diego Raphael Amancio.
6.   2009-2009. Consultas por Similaridade em Imagens Médicas: Da Viabilidade Clínica à Prática do Auxílio ao Diagnóstico Médico: Aplicações em um Hospital Escola
Os sistemas de informação para medicina têm por objetivo disponibilizar a informação necessária ao médico de modo rápido e preciso visando assim melhorar a qualidade do cuidado e tratamento de pacientes. Em radiologia, a aplicação de técnicas de recuperação de imagens por conteúdo (Content-based Image Retrieval- CBIR) incorporadas aos Sistemas de Comunicação e Armazenamento de Imagens (Picture Archiving and Communication Systems - PACS) proporciona um avanço na recuperação de imagens armazenadas, antes vinculadas a um identificador do paciente ou de um exame. Com essa nova abordagem as buscas passam a ser realizadas por meio de comparações diretas entre imagens por meio de seus descritores pictóricos, possibilitando efetuar buscas por similaridade e abrindo novos caminhos para utilização do computador e das imagens médicas em atividades de auxílio ao diagnóstico. Este projeto visa permitir integrar a percepção do especialista do que é similar, no processo de recuperação de imagens baseada em seu conteúdo. Assim, deve-se diminuir um dos principais problemas dos sistemas CBIR, quando aplicados em ambientes de apoio ao diagnóstico (Computer-Aided Diagnosis - CAD), que é a lacuna semântica (semantic gap). Tal lacuna origina-se do fato que medidas de similaridade sobre os descritores das imagens, baseados na distribuição de cores/níveis de intensidade, textura e formas, em geral não possuem correlação direta com a semântica subjetiva humana. A idéia principal é desenvolver um mecanismo automático de otimização de consulta por similaridade baseado em parâmetros de percepção levantados pelos próprios radiologistas. Esse método fará uma escolha automática de quais os parâmetros perceptuais deverão ser considerados relevantes no processamento da consulta. Esses parâmetros serão detectados automaticamente, através de mineração de palavras-chave nas justificativas do pedido de exame, dos dados contidos no cabeçalho DICOM das imagens sob processamento.
Membro: Cristina Dutra de Aguiar.
Os sistemas de informação para medicina têm por objetivo disponibilizar a informação necessária ao médico de modo rápido e preciso visando assim melhorar a qualidade do cuidado e tratamento de pacientes. Em radiologia, a aplicação de técnicas de recuperação de imagens por conteúdo (Content-based Image Retrieval- CBIR) incorporadas aos Sistemas de Comunicação e Armazenamento de Imagens (Picture Archiving and Communication Systems - PACS) proporciona um avanço na recuperação de imagens armazenadas, antes vinculadas a um identificador do paciente ou de um exame. Com essa nova abordagem as buscas passam a ser realizadas por meio de comparações diretas entre imagens por meio de seus descritores pictóricos, possibilitando efetuar buscas por similaridade e abrindo novos caminhos para utilização do computador e das imagens médicas em atividades de auxílio ao diagnóstico. Este projeto visa permitir integrar a percepção do especialista do que é similar, no processo de recuperação de imagens baseada em seu conteúdo. Assim, deve-se diminuir um dos principais problemas dos sistemas CBIR, quando aplicados em ambientes de apoio ao diagnóstico (Computer-Aided Diagnosis - CAD), que é a lacuna semântica (semantic gap). Tal lacuna origina-se do fato que medidas de similaridade sobre os descritores das imagens, baseados na distribuição de cores/níveis de intensidade, textura e formas, em geral não possuem correlação direta com a semântica subjetiva humana. A idéia principal é desenvolver um mecanismo automático de otimização de consulta por similaridade baseado em parâmetros de percepção levantados pelos próprios radiologistas. Esse método fará uma escolha automática de quais os parâmetros perceptuais deverão ser considerados relevantes no processamento da consulta. Esses parâmetros serão detectados automaticamente, através de mineração de palavras-chave nas justificativas do pedido de exame, dos dados contidos no cabeçalho DICOM das imagens sob processamento
Membro: Agma Juci Machado Traina.
7.   2009-2009. Continuidade na Consolidação das linhas de pesquisa do mestrado em Ciência da Computação do DCT/UFMS

Membro: Renata Pontin de Mattos Fortes.
8.   2009-2009. Dinamica espaco-temporal para clusterizacao de dados: uma abordagem neural

Membro: Roseli Aparecida Francelin Romero.
9.   2009-2009. Filmes Nanoestruturados com materiais de interesse biológico: ênfase em modelos de membrana e biossensores
Edital 04/CII-2008 (CAPES), REDE NANOBIOTEC - BRASIL, da Diretoria de Programas e Bolsas no País, que visa apoiar a pesquisa científica e a formação de recursos humanos altamente qualificados na área da Nanobiotecnologia. Financiamento: R$ 2.254.531,80
Membro: Maria Cristina Ferreira de Oliveira.
Edital 04/CII-2008 (CAPES), REDE NANOBIOTEC - BRASIL, da Diretoria de Programas e Bolsas no País, que visa apoiar a pesquisa científica e a formação de recursos humanos altamente qualificados na área da Nanobiotecnologia. Financiamento: R$ 2.254.531,80 .
Membro: Fernando Vieira Paulovich.
10.   2009-2009. GOLAPWARE: Uma Ferramenta SOLAP para Análise de Dados Multidimensionais e Espaciais
O principal objetivo deste projeto de pesquisa é prover um ambiente único, com capacidades de processamento geográfico e multidimensional, para dar suporte ao processo de tomada de decisões estratégicas. Para isto, esta pesquisa visa a construção de uma ferramenta SOLAP que consista em um ambiente aberto, extensível e independente de plataforma e possua: (1) ferramentas para extração, transformação e leitura dos dados convencionais e geográficos presentes em diferentes fontes, (2) um DWG para base de dados analíticos e geográficos integrados, (3) metamodelos para o DWG e para o conjunto de metadados de integração, (4) um mecanismo para processamento analítico-multidimensional e geográfico, (5) uma linguagem de consulta com sintaxe integrada para a utilização simultânea tanto de operadores analíticos quanto de operadores espaciais e (6) uma aplicação cliente com uma interface amigável para a elaboração, submissão, manipulação e visualização dos resultados mostrados a partir de mapas, tabelas e gráficos.
Membro: Cristina Dutra de Aguiar.
11.   2009-2009. INCT - MACC Medicina Assistida por Computação Científica
Realizar pesquisa e desenvolvimento em computação científica e suas aplicações na medicina, em especial a modelagem e simulação computacional dos sistemas fisiológicos que integram o corpo humano; promover o desenvolvimento do processamento de imagens médicas, da visualização científica e da realidade virtual no desenvolvimento de aplicativos médicos orientados para o diagnóstico auxiliado por computador, tratamento, planejamento cirúrgico, treinamento e credenciamento médico; empregando as mais modernas técnicas de comunicação e transmissão multimídia desenvolver e gerenciar ambientes computacionais de alto desempenho que atendam às necessidades da medicina assistida por computação científica do País; formar recursos humanos e promover transferência de tecnologia e inovação para a área da saúde assistida por computação científica..
Membro: João do Espirito Santo Batista Neto.
12.   2009-2009. MCT (CTIC) GingaFrEvo & GingaRAP - Evolução do Middleware Ginga para Múltiplas Plataformas (Componentização) & Ferramentas para Desenvolvimento e Distribuições de Aplicações Declarativas
Evolução do Middleware Ginga para Múltiplas Plataformas (Componentização) & Ferramentas para Desenvolvimento e Distribuições de Aplicações Declarativas
Membro: Maria da Graca Campos Pimentel.
13.   2009-2009. Otimização de Acesso a Dados em Grids Computacionais Utilizando Conhecimentos sobre Aplicações Paralelas
A maioria dos atuais sistemas de gerência de Grids computacionais são voltados para simplificar o desenvolvimento ou escalonamento de aplicações. Contudo, nenhum desses ambientes extrai e utiliza informações de aplicações para otimizar operações tais como: escalonamento e migração de processos, acesso a dados distribuídos, comunicação em rede e latência de acesso à memória (visando minimizar atrasos). Grande parte desses sistemas de gerência de Grids ainda requerem que usuários reescrevam suas aplicações para submissão. Tais limitações motivaram o projeto MidHPC (Middleware for High Performance Computing) que provê um middleware para a execução de aplicações paralelas e distribuídas desenvolvidas segundo o paradigma concorrente. O projeto MidHPC evoluiu em muitas frentes, as quais motivam novas pesquisas, principalmente no que se refere ao acesso a dados. Esse mesmo tema tem limitado pesquisas na área de Grids computacionais a focarem exclusivamente em aplicações do tipo Bag-of-Tasks. Motivados pela necessidade de acesso otimizado a dados, este plano de pesquisa propõe o estudo, proposta e avaliação de desempenho de técnicas bioinspiradas com o objetivo de reduzir o tempo de acesso a dados em Grids computacionais. A estrutura de Grid será modelada utilizando redes complexas, que permitem descrever todas as entidades envolvidas (roteadores, canais de comunicação e computadores) e suas respectivas interações. Sobre tal modelo serão propostas abordagens baseadas em inteligência de enxames (Swarm Intelligence) e algoritmos genéticos para otimizar o tempo de acesso, explorando a distribuição, localidade, replicação e acesso paralelo dos dados, comportamento de acesso das aplicações e características do ambiente. Deve-se comparar o desempenho das técnicas propostas à outras adotadas na literatura. Resultados da pesquisa devem conduzir o desenvolvimento de uma plataforma de distribuição e acesso a dados para o projeto MidHPC. Essa plataforma motivaria pesquisas em diferentes áreas tais como mineração de dados, bancos de dados distribuídos, sistemas de arquivos distribuídos e computação gráfica.
Membro: Rodrigo Fernandes de Mello.
14.   2009-2009. Padrões do português popular escrito: o vocabulário do Jornal Diário Gaúcho. Fase 1
Descrição e estudo de padrões do vocabulário de jornais populares voltados para um público de menor poder aquisitivo. Nesta etapa da pesquisa será considerado apenas o jornal popular DIÁRIO GAÚCHO, publicado em Porto Alegre-RS, produzido pelo grupo RBS. O foco principal da pesquisa é a caracterização do léxico e da feição da linguagem como um todo em um texto que é feito, em tese, de um modo mais simplificado, para ser compreendido com facilidade por pessoas de um determinado grupo social e econômico, com uma bagagem cultural mais ou menos tipificada e com um grau de escolaridade relativamente baixo. Esse jornal tem grande tiragem, cerca de 160 mil exemplares/dia, sendo que cada 01 exemplar é lido por 05 pessoas em média. È o único do gênero publicado na cidade e sua tiragem atesta a enorme aceitação por parte de seu público-alvo na cidade de Porto Alegre e em todo o entorno da região metropolitana. O número de leitores supera, de longe, o de jornais da mesma cidade dirigidos a públicos mais tradicionais distribuídos em todo o Estado do Rio Grande do Sul. Suas contínuas grandes tiragens e a grande adesão de seu público a quaisquer eventos promovidos pelo jornal demonstram, em tese, uma metodologia bem-sucedida de elaboração de texto dirigido para o tipo de leitor antes citado. A pesquisa utiliza como corpus a publicação do jornal ao longo de todo o ano de 2008, com contraponto de pequena amostra de 2009. Os enfoques iniciais da pesquisa são de cunho estatístico e contam com o apoio de pesquisadores de Lingüística Computacional/Processamento da Linguagem Natural (PLN) do Instituto de Informática da UFRGS e da Faculdade de Informática (FACIN) da PUC-RS. Esses pesquisadores da área da Computação desenvolvem estudos sobre observações de expressões multipalavra e sobre geração de ontologias a partir desse corpus. São também feitas observações e contrastes com padrões de vocabulário do jornal Zero Hora (ZH), publicado pela mesma empresa do Diário Gaúcho, o qua
Membro: Sandra Maria Aluísio.
15.   2009-2009. POPULARIZAÇÃO DA ROBÓTICA

Membro: Roseli Aparecida Francelin Romero.
16.   2009-2009. Projeto Universal - VarSimDNS - Variações de Operadores de Consultas por Similaridade para Melhor Qualidade de Respostas
Auxílio Integrado à Pesquisa do CNPq, Projeto Nº 476529/2009-3
Membro: Caetano Traina Junior.
17.   2009-2009. Proposta de um Suporte para Otimização de Acesso a Dados Distribuídos

Membro: Rodrigo Fernandes de Mello.
18.   2009-2009. Sequential and Temporal Data Mining

Membro: Gustavo Enrique de Almeida Prado Alves Batista.
19.   2009-2009. Sickle Cell Anemia Project
Exploração de métodos de mineração de textos biomédicos sobre a doença anemia falciforme.
Membro: Thiago Alexandre Salgueiro Pardo.
20.   2009-2009. sucinto - summarization for clever information access
The sucinto project aims at investigating and exploring generic and topic-focused multi-document summarization strategies for providing a more feasible and intelligent access to on-line information provided by news agencies. This commitment brings back old and well-known scientific challenges from the first studies in summarization in the 50s as well as introduces several new and exciting challenges, e.g., to deal with redundant, complementary and contradictory information, to normalize different writing styles and referring expression choices, to balance different perspectives and sides of the same events and facts, to properly deal with evolving events and their narration in different moments, and to arrange information pieces from different texts to produce coherent and cohesive summaries, among several others. An ultimate goal of this project is to pull the developed tools together as on-line applications for final users. This project takes into consideration not only classical approaches to single and multi-document summarization, but also new ones, following different paradigms and using knowledge of varied nature ranging from empirical and statistical data to semantic and discourse models. Research interests include (i) the modeling of the summarization process (content selection, planning, aggregation, generalization, substitution, information ordering, etc.) by means of Cross-document Structure Theory (CST), Rhetorical Structure Theory (RST), ontologies, and language and summarization statistical models, (ii) the investigation of related tasks as discourse parsing, topic detection, temporal annotation and resolution, coreference resolution, text-summary alignment, and multilingual processing, and (iii) the linguistic characterization of multi-document summaries and their manual production.
Membro: Thiago Alexandre Salgueiro Pardo.
21.   2009-2009. Sumarização automática multidocumento com base no modelo Cross-document Structure Theory (CST)
(FAPESP nro. 2009/05603-0) Com base na CST, investiga-se as várias tarefas relacionadas à sumarização multidocumento (ou seja, a produção de sumários/resumos a partir de um conjunto de textos), a saber: modelagem de conhecimento e análise textual, seleção de conteúdo textual para o sumário e pós-edição de sumários, dentre outras
Membro: Thiago Alexandre Salgueiro Pardo.
22.   2009-2009. TermiNet - Instantiation and Application of a Methodology for the Development of Terminological Wordnets in Brazilian Portuguese
(FAPESP nro. 2009/06262-1; MCT/CNPq Universal nro. 471871/2009-5) Due to the increasing necessity of processing specialized texts, domain-specific (or terminological) lexical databases have been built in many languages, especially in wordnet format. Despite the existence of a reasonable number of terminological wordnets in many languages, there is no clear and generic methodology for building them. For Brazilian Portuguese (BP), by the way, there is no domain-specific lexical database in wordnet model. Consequently, we propose: (i) to instantiate a generic NLP methodology for developing terminological wordnets, and (ii) apply it to build a terminological wordnet in BP. Such methodology distinguishes itself by conciliating the linguistic and computational facets of the NLP researches. So, besides the benefits to NLP domain, terminological wordnets may also contribute to the development of terminological/ terminographic products since the organization of lexical-conceptual knowledge is an essential step in building such products.
Membro: Thiago Alexandre Salgueiro Pardo.

2008

1.   2008-2008. Avaliação de acessibilidade de Web sites baseada em métricas: uma abordagem baseada no Modelo de Acessibilidade para Governo Eletronico do Brasil (e-MAG)
A acessibilidade tem se tornado um aspecto essencial para promover a inclusão na Sociedade da Informação. Em particular, observar a acessibilidade emconteúdos públicos e governamentais disponibilizados na Web é fundamental para garantir acesso participativo e universal do cidadão brasileiro ao conhecimento, independente de deficiências ou qualquer outro tipo de barreira. Métricas são um importante meio para medição e obtenção de dados quantitativos para análise de determinadas características de aplicações. Diversas iniciativas tem sido feitas no exterior para pesquisar soluções para monitorar a acessibilidade de grandes volumes de informações. No Brasil há iniciativas em termos do desenvolvimento de ferramentas de avaliação de acessibilidade. Contudo, essas ferramentas não são disponibilizadas como software livre, e não são adequadas para gerar dados quantitativos na forma de métricas. Neste projeto, propõe-se efetuar uma investigação sobre como implementar uma solução para extração de dados quantitativos sobre a acessibilidade de conteúdos Web em sites governamentais com base no e-MAG (Modelo de Acessibilidade para Governo Eletrônico), a ser disponibilizada como software livre. Este tipo de solução trará importantes contribuições, de forma a colaborar com órgãos governamentais e organizações não governamentais no intuito de monitorar e obter valores indicativos sobre a evolução da acessibilidade no Brasil
Membro: Renata Pontin de Mattos Fortes.
2.   2008-2008. CAPES (RH-TVD) Serviços e Aplicações Inovadoras para TV Digital Interativa - i2TVD
Projeto em andamento no contexto do CAPES EDITAL RH TVD N0 01 / 2007. Parceria: PPGCCMG/USP, PPG-CC/UFSCar, FUCAPI/Manaus. Colaboração: CWI: Centro de Pesquisa em Informática, Amsterdam, Netherlands. Parceria para a realização de pesquisa por aplicações não convencionais nas áreas de Engenharia de Software, Interação Usuário-Computador, Computação Ubíqua, Recuperação de Informação e Multimídia, com experimentação e avaliação no domínio educacional.
Membro: Rudinei Goularte.
Projeto em andamento no contexto do CAPES EDITAL RH ? TVD N0 01 / 2007. Parceria: PPGCCMG/USP, PPG-CC/UFSCar, FUCAPI/Manaus. Colaboração: CWI: Centro de Pesquisa em Informática, Amsterdam, Netherlands. Parceria para a realização de pesquisa por aplicações não convencionais nas áreas de Engenharia de Software, Interação Usuário-Computador, Computação Ubíqua, Recuperação de Informação e Multimídia, com experimentação e avaliação no domínio educacional. Valor ~R$480mil em 4 anos.
Membro: Maria da Graca Campos Pimentel.
3.   2008-2008. Continuidade na Consolidação das linhas de pesquisa do mestrado em Ciências da Computação do DC/UFMS
Edital CNPq 'Casadinho' - Processo 620080/2008-6 - Edital no. 16/2008 - Faixa A
Membro: Solange Oliveira Rezende.
Edital CNPq ´Casadinho´ - Processo 620080/2008-6 - Edital nº 16/2008 - Faixa A Coordenador: Marcelo Heniques de Carvalho (UFMS) Valor Total: R$ 180.000,00
Membro: Maria Cristina Ferreira de Oliveira.
4.   2008-2008. FAPESP (SticAmSud) Semantic-based Support for Collaborative Design Activity
The main goal of this cooperation project is to integrate and share the experiences, results and research effort that have been already done by the groups of the participating institutions into a join work to define methodological and software support (models, methods and tools) which allow incorporate semantic features in a computer-supported design activity. Particularly, the project intents to demonstrate that semantic web technologies are a suitable option to improve computerassisted design process. In order to achieve this goal, we will identify semantic requirement for design situation and we develop methodological support and software solution for it management. Amedeo Napoli Research Director of the Orpailleur team LORIA Research Laboratory Nancy, France Gérôme Alexandre Canals Assistant Professor, Nancy University Member of the LORIA Research Laboratory Nancy, France Hernan Astudillo Professor Departamento de Informática Universidad Técnica Federico Santa María, Alicia Viviana Diaz Lifia Laboratory, Fac. Informatica - UNLP La Plata, Argentina
Membro: Maria da Graca Campos Pimentel.
5.   2008-2008. IC - SIREN-SM – Módulo de extensão à SQL para Consultas por Similaridade em SGBD Relacionais
Edital MCT/CNPq nº 01/2007/ Iniciação Científica a Projetos de Pesquisa Científica e Tecnológica - CNPq Nº 503775/2007-0 - Projeto intitulado: “SIREN-SM – Módulo de extensão à SQL para Consultas por Similaridade em SGBD Relacionais”. Uma quota de bolsa de Iniciação Científica, com duração de 3 anos, a partir de março de 2008, por quota ao pesquisador.
Membro: Caetano Traina Junior.
6.   2008-2008. INCT de Sistemas Embarcados Críticos
A criação de um Instituto de Sistemas Embarcados Críticos é proposta neste projeto. O objetivo geral desse instituto é elevar o nível de conhecimento, competência e qualidade no país sobre o desenvolvimento desse tipo de sistema, considerando que se trata de tecnologia importante para apoiar o desenvolvimento de áreas estratégicas do país, como a do meio ambiente, a de segurança e defesa e a de agricultura. O projeto é abrangente e envolve grupos de pesquisadores de nove universidades brasileiras e sete empresas. Os principais objetivos mais específicos são o desenvolvimento de pesquisas para a construção de sistemas embarcados críticos com ênfase para veículos autônomos móveis e a construção de pelo menos dois protótipos de veículo, um aéreo e um terrestre, com o objetivo de serem transferidos para as empresas associadas, visando a possível fabricação e comercialização. Outros objetivos relevantes são a produção de uma metodologia que documente esse conhecimento e possa ser usada para o treinamento de pessoal formado na área; a produção de mestres e doutores e produção intelectual na forma de artigos científicos apresentados e publicados em conferências e periódicos de boa qualidade, bem como de patentes.
Membro: Alneu de Andrade Lopes.
7.   2008-2008. Mineração Visual de Dados Multidimensionais: Tratamento do Componente Temporal e de Tópicos
A evolução dos sistemas de mineração visual para apoiar tarefas de análise de dados de alta dimensionalidade e variantes no tempo representa um grande desafio, em vista da onipresença de tais tipos de dados. Esta proposta aborda o desenvolvimento de técnicas e ferramentas interativas de mineração visual para apoiar a análise de dois tipos de dados multidimensionais, a saber, coleções de documentos textuais e séries temporais. Temos pesquisado recentemente o desenvolvimento de técnicas para criar mapas visuais de coleções de documentos, nos quais estes são dispostos no plano com base na similaridade do seu conteúdo. Os mapas são gerados por técnicas de projeção multidimensional, ou de posicionamento de pontos, que permitem criar representações visuais interativas na forma de grafos, árvores, superfícies 3D, etc. Essas técnicas oferecem um arcabouço aplicável não apenas a documentos textuais, mas a dados multidimensionais em geral, tendo sido utilizadas, por exemplo, na visualização exploratória de coleções de séries temporais. No âmbito deste projeto pretendemos estender e refinar as técnicas já desenvolvidas para mineração visual de séries temporais, bem como tratar explicitamente o aspecto da evolução temporal na visualização de dados multidimensionais em geral, e de coleções de textos em particular. Nesse contexto, investigaremos o uso de tópicos extraídos automaticamente dos documentos textuais para apoiar a interação do usuário com mapas de documentos, bem como para favorecer a identificação de variações temporais no conteúdo de uma coleção. Pretende-se validar as técnicas e soluções por meio de sua aplicação a alguns domínios de interesse: laudos médicos (textuais); bancos de patentes e coleções de artigos científicos; e séries temporais oriundas de três domínios diversos, a saber, séries históricas de vazões registradas no sistema hidroelétrico brasileiro, séries associadas a estudos de propagação de doenças e séries financeiras.
Membro: Maria Cristina Ferreira de Oliveira.
: A evolução dos sistemas de mineração visual para apoiar tarefas de análise de dados de alta dimensionalidade e variantes no tempo representa um grande desafio, em vista da onipresença de tais tipos de dados. Esta proposta aborda o desenvolvimento de técnicas e ferramentas interativas de mineração visual para apoiar a análise de dois tipos de dados multidimensionais, a saber, coleções de documentos textuais e séries temporais. Temos pesquisado recentemente o desenvolvimento de técnicas para criar mapas visuais de coleções de documentos, nos quais estes são dispostos no plano com base na similaridade do seu conteúdo. Os mapas são gerados por técnicas de projeção multidimensional, ou de posicionamento de pontos, que permitem criar representações visuais interativas na forma de grafos, árvores, superfícies 3D, etc. Essas técnicas oferecem um arcabouço aplicável não apenas a documentos textuais, mas a dados multidimensionais em geral, tendo sido utilizadas, por exemplo, na visualização exploratória de coleções de séries temporais. No âmbito deste projeto pretendemos estender e refinar as técnicas já desenvolvidas para mineração visual de séries temporais, bem como tratar explicitamente o aspecto da evolução temporal na visualização de dados multidimensionais em geral, e de coleções de textos em particular. Nesse contexto, investigaremos o uso de tópicos extraídos automaticamente dos documentos textuais para apoiar a interação do usuário com mapas de documentos, bem como para favorecer a identificação de variações temporais no conteúdo de uma coleção. Pretende-se validar as técnicas e soluções por meio de sua aplicação a alguns domínios de interesse: laudos médicos (textuais); bancos de patentes e coleções de artigos científicos; e séries temporais oriundas de três domínios diversos, a saber, séries históricas de vazões registradas no sistema hidroelétrico brasileiro, séries associadas a estudos de propagação de doenças e séries financeiras.
Membro: Fernando Vieira Paulovich.
8.   2008-2008. Modelagem Computacional de Sistemas Complexos utilizando Mineração de Dados, Imagens e Textos
O objetivo geral deste projeto, o qual pode ser caracterizado como um projeto de pesquisa científica e tecnológica, é pesquisar, propor e desenvolver soluções para a representação, indexação, modelagem e análise de dados complexos para possibilitar que um analista do domínio possa compreender os inter-relacionamentos existentes nos dados, imagens e textos, de modo a auxiliá-lo a tomar decisões nos processos de recuperação de informação, descoberta de conhecimento e diagnóstico. O projeto visa o desenvolvimento de um ferramental teórico e prático que auxilie analistas na modelagem desse tipo de sistemas complexos, com foco nos temas de: indução de modelos simbólicos com aplicações em sériestemporais e dados sequenciais; anáise de bases de dados não-estruturados e semi-estruturados para mineração de textos; mineração de imagens em um sistema de arquivamento e recuperação de imagens médicas por conteúdo.
Membro: Solange Oliveira Rezende.
9.   2008-2008. Projeto Procad - Arquitetura de desenvolvimento para a produção de software de apoio a atividades de saúde
O projeto tem dois objetivos. O primeiro é o desenvolvimento de tecnologia e pessoal qualificado para incluir operadores de busca e comparação por similaridade em ferramentas de apoio ao desenvolvimento de software, e mais especificamente, para a busca e comparação por similaridade do conteúdo de imagens de exames médicos em aplicações para a área da saúde. O segundo objeto é o desenvolvimento de técnicas de mineração de dados sobre objetos complexos, especialmente sobre imagens de exames médicos e sobre dados clínicos de pacientes, os quais envolvem informações temporais e o acompanhamento do paciente por longo período.
Membro: Robson Leonardo Ferreira Cordeiro.
O projeto tem dois objetivos. O primeiro é o desenvolvimento de tecnologia e pessoal qualificado para incluir operadores de busca e comparação por similaridade em ferramentas de apoio ao desenvolvimento de software, e mais especificamente, para a busca e comparação por similaridade do conteúdo de imagens de exames médicos em aplicações para a área da saúde. O segundo objeto é o desenvolvimento de técnicas de mineração de dados sobre objetos complexos, especialmente sobre imagens de exames médicos e sobre dados clínicos de pacientes, os quais envolvem informações temporais e o acompanhamento do paciente por longo período.
Membro: Elaine Parros Machado de Sousa.
O projeto tem dois objetivos. O primeiro é o desenvolvimento de tecnologia e pessoal qualificado para incluir operadores de busca e comparação por similaridade em ferramentas de apoio ao desenvolvimento de software, e mais especificamente, para a busca e comparação por similaridade do conteúdo de imagens de exames médicos em aplicações para a área da saúde. O segundo objeto é o desenvolvimento de técnicas de mineração de dados sobre objetos complexos, especialmente sobre imagens de exames médicos e sobre dados clínicos de pacientes, os quais envolvem informações temporais e o acompanhamento do paciente por longo período.
Membro: Cristina Dutra de Aguiar.
10.   2008-2008. Projeto Universal - MICAD - Mineração de Imagens Médicas por Conteúdo apoiando CAD: Aplicações em um Hospital Escola
O volume de dados e imagens gerados nos hospitais e clínicas médicas cresce a um ritmo cada vez mais acelerado, devido ao barateamento do custo de coletar e armazenar tais informações. O diagnóstico baseado em imagens pode ser grandemente aprimorado se o especialista da área médica puder recuperar de modo rápido e pertinente informações que o apoiem na tomada de decisão. Por exemplo, recuperar casos parecidos com o que está sendo analisado, verificar o inter-relacionamento entre itens de dado e tratamentos/resultados alcançados, bem como visualizar num piscar de olhos a evolução de casos semelhantes e já diagnosticados por colegas especialistas. Este projeto visa o desenvolvimento de técnicas e algoritmos que constituirão o arcabouço teórico e prático para o desenvolvimento de ferramentas que possibilitem compreender o inter-relacionamento entre as características das imagens (que as representam) e seu significado semântico, de modo a obter os dados mais relevantes para serem utilizados para responder consultas por similaridade para apoiar o processo de decisão na elaboração de diagnósticos médicos. Os resultados alcançados por este projeto serão aplicados a sistemas de arquivamento e recuperação de imagens médicas (PACS), permitindo alcançar um patamar mais elevado em tais sistemas. Ou seja, sistemas PACS que já organizam as imagens e dados e pacientes, passarão a apoiar a tomada de decisão para suporte ao diagnóstico médico por imagens.
Membro: Robson Leonardo Ferreira Cordeiro.

Membro: José Fernando Rodrigues Júnior.
O volume de dados e imagens gerados nos hospitais e clínicas médicas cresce a um ritmo cada vez mais acelerado, devido ao barateamento do custo de coletar e armazenar tais informações. O diagnóstico baseado em imagens pode ser grandemente aprimorado se o especialista da área médica puder recuperar de modo rápido e pertinente informações que o apoiem na tomada de decisão. Por exemplo, recuperar casos parecidos com o que está sendo analisado, verificar o inter-relacionamento entre itens de dado e tratamentos/resultados alcançados, bem como visualizar num piscar de olhos a evolução de casos semelhantes e já diagnosticados por colegas especialistas. Este projeto visa o desenvolvimento de técnicas e algoritmos que constituirão o arcabouço teórico e prático para o desenvolvimento de ferramentas que possibilitem compreender o inter-relacionamento entre as características das imagens (que as representam) e seu significado semântico, de modo a obter os dados mais relevantes para serem utilizados para responder consultas por similaridade para apoiar o processo de decisão na elaboração de diagnósticos médicos. Os resultados alcançados por este projeto serão aplicados a sistemas de arquivamento e recuperação de imagens médicas (PACS), permitindo alcançar um patamar mais elevado em tais sistemas. Ou seja, sistemas PACS que já organizam as imagens e dados e pacientes, passarão a apoiar a tomada de decisão para suporte ao diagnóstico médico por imagens..
Membro: Elaine Parros Machado de Sousa.
O volume de dados e imagens gerados nos hospitais e clínicas médicas cresce a um ritmo cada vez mais acelerado, devido ao barateamento do custo de coletar e armazenar tais informações. O diagnóstico baseado em imagens pode ser grandemente aprimorado se o especialista da área médica puder recuperar de modo rápido e pertinente informações que o apoiem na tomada de decisão. Por exemplo, recuperar casos parecidos com o que está sendo analisado, verificar o inter-relacionamento entre itens de dado e tratamentos/resultados alcançados, bem como visualizar num piscar de olhos a evolução de casos semelhantes e já diagnosticados por colegas especialistas. Este projeto visa o desenvolvimento de técnicas e algoritmos que constituirão o arcabouço teórico e prático para o desenvolvimento de ferramentas que possibilitem compreender o inter-relacionamento entre as características das imagens (que as representam) e seu significado semântico, de modo a obter os dados mais relevantes para serem utilizados para responder consultas por similaridade para apoiar o processo de decisão na elaboração de diagnósticos médicos. Os resultados alcançados por este projeto serão aplicados a sistemas de arquivamento e recuperação de imagens médicas (PACS), permitindo alcançar um patamar mais elevado em tais sistemas. Ou seja, sistemas PACS que já organizam as imagens e dados e pacientes, passarão a apoiar a tomada de decisão para suporte ao diagnóstico médico por imagens.
Membro: Agma Juci Machado Traina.
11.   2008-2008. Projeto Urano II
um único ou a vários docentes serem digitados repetidas vezes e/ouExiste atualmente uma grande variedade de aplicações que gerenciam dados relacionados a docentes, como o Currículo Lattes e, no caso da USP, os sistemas administrativos Júpiter e Fênix. Estas aplicações foram desenvolvidas de forma independente umas das outras, e armazenam dados complementares ou até mesmo repetidos. Neste sentido, este projeto visa desenvolver um banco de dados que permita a integração dos dados dos currículos de docentes, visando a elaboração de relatórios integrados e também a diminuição da necessidade dos mesmos dados relativos a em formatos diferentes. Esta integração, assim como a troca de dados entre as aplicações, é baseada na linguagem XML. Além de servir de base para a geração de relatórios simples, outro aspecto do projeto consiste em oferecer suporte à tomada de decisão, desde que a análise de dados relacionados a currículos de docentes pode subsidiar processos decisórios possibilitando o planejamento de ações de forma mais eficiente. Observação: Coordenadores: Cristina Dutra de Aguiar Ciferri e Caetano Traina Junior
Membro: Cristina Dutra de Aguiar.
12.   2008-2008. Projeção de dados multidimensionais e seleção de características
Este projeto visa explorar a simbiose entre as técnicas de Projeção multidimensional de dados, da área de visualização, com a seleção de características. O objetivo é mostrar como a tarefa de projeção de dados multidimensional pode auxiliar o processo de reconhecimento de padrões (neste caso a seleção de características e classificação) pode revelar a potencialidade de características selecionadas e, conseqüentemente, contribuir com o processo de classificação. Por um outro lado, projeções melhores poderão ser geradas, em função de um espaço de características reduzido, obtido pelo processo de seleção.
Membro: João do Espirito Santo Batista Neto.
13.   2008-2008. Redes Complexas para Clusterização de Dados
A clusterização de dados pode oferecer diversas maneiras de entender e extrair informações relevantes de grandes conjuntos de dados. Através da detecção de grupos é possível organizar padrões com características semelhantes e estabelecer hierarquias, permitindo uma análise mais detalhada desses dados. As técnicas desse processo são utilizadas cada vez mais em diversas áreas, tais como: reconhecimento de padrões, mineração de dados, bioinformática, tomada de decisão, aprendizado de máquina, segmentação de imagens, etc. A presente proposta visa o desenvolvimento de novas técnicas de clusterização de dados baseadas em redes complexas. O processo de clusterização consistirá em duas etapas: formação da rede a partir de um conjunto de dados de entrada, e partição da rede produzindo clusters. Inicialmente, a técnica de formação da rede será baseada na extensão de um método desenvolvido recentemente pelo presente grupo. Na segunda etapa, várias técnicas de partição da rede serão investigadas, tais como partição via sincronização, via movimentação dos vértices e via caminhada aleatória. A representação de dados em rede pode revelar estruturas topológicas dos dados de entrada, portanto, espera-se que as técnicas desenvolvidas sejam capazes de detectar clusters de formas, densidades e tamanhos variados. Além disso, espera-se que estas técnicas também viabilizem uma representação hierárquica de clusters, permitindo a escolha da melhor partição dentre várias possibilidades. As técnicas de partição de rede que serão desenvolvidas neste projeto não possuem como objetivo encontrar soluções ótimas via busca exaustiva, mas sim soluções aproximadamente ótimas com grande eficiência e robustez que são características desejáveis para processamento de grande quantidade de dados.
Membro: Roseli Aparecida Francelin Romero.
14.   2008-2008. Sistemas conexionistas biologicamente plausíveis para previsão de papéis semânticos

Membro: João Luís Garcia Rosa.
15.   2008-2008. Uma Abordagem bioinspirada para desenvolvimento de um sistema de controle para múltiplos robôs móveis
Este projeto visa o desenvolvimento de estratégias baseadas em ACO e SWARMs, que são técnicas bioinspiradas visando o controle de vários robôs móveis de pequeno porte. Pretende-se utilizar este sistema para vigilância/monitoramento de ambientes. Este projeto inclui temas importantes da Robótica que são: exploração de ambientes, mapeamento de ambientes e formação de robôs. Estão envolvidos neste projeto, 01 posdoc, 01 aluno de Doutorado e 01 aluno de Mestrado.
Membro: Roseli Aparecida Francelin Romero.
16.   2008-2008. Uma Proposta para Consolidação e Expansão do Programa de Pós-Graduação em Ciência da Computação do DCT-UFMS
Projeto de Cooperação Acadêmica - Procad/NF da CAPES Instituições: DCT/UFMS (principal), ICMC-USP, IME-USP, POLI-USP e IC-UNICAMP (colaboradoras) Edital Procad N° 01/ 2007 Varlor Total: R$ 240.000,00
Membro: Maria Cristina Ferreira de Oliveira.
17.   2008-2008. Web Semântica na Criação de Anotações Inteligentes em Bioinformática
A Web Semântica foi proposta como uma maneira de explorar a associação de significados explícitos (usando ontologias) aos conteúdos de documentos presentes na Web, para que eles possam ser processados e interpretados automaticamente. Essa tem sido uma área de intensa pesquisa dentro de Sistemas Web, apesar disso a Web Semântica não tem se tornado popular como outras tecnologias Web. Uma das principais razões é que os usuários em geral não têm benefícios com essa tecnologia porque ainda não existe uma grande quantidade de documentos com significados associados. Essa situação cria um impasse. Por outro lado, na área biomédica, bio-ontologias tem se tornado muito populares como ferramentas para anotar (associar significados explícitos) dados gerados por experimentos biomédicos de alto volume (como sequenciamento de DNA ou uso de biochips). Essas bio-ontologias tem crescido em tamanho e complexidade, a medida que são usadas para anotar um volume cada vêz maior de dados importantes. A união da tecnologia da Web Semântica com o grande volume de documentos e dados anotados da biomedicina pode prover o volume de documentos necessário para popularizar o uso da Web Semântica. Essa visão é compartilhada pelos pesquisadores do NCBO - National Center for Biomedical Ontology (Stanford University). Na nossa visão, tecnologias, como a Web Semântica, deverão ser usadas para dar suporte a pesquisa na área biomédica que envolva o uso de ontologias e anotação de dados. O objetivo principal desse projeto é o desenvolvimento de ferramentas Web colaborativas que permitam a usuário leigos (médicos e biólogos) a produção e manutenção colaborativas de anotações machine understandable na área de bioinformática. Isso será feito em parceria com o NCBO, como forma de criação de vínculos permanentes entre este e o ICMC-USP. Projeto Universal CNPq 481837/2008-6, recursos R$ 32.000,00, de 05/2009 a 05/2011.
Membro: Dilvan de Abreu Moreira.

2007

1.   2007-2007. Ambiente para Exploração de Regras - RulEE
Do ponto de vista do usuário, um dos problemas encontrados no final do processo de mineração de dados é que muitos dos algoritmos de extração geram uma enorme quantidade de padrões. Um outro problema identificado é a dificuldade na compreensão dos modelos extraídos dos dados. Muitas vezes, esses modelos podem ser muito complexos ou não fazerem sentido para os usuários especialistas no domínio da aplicação em que processo de mineração de dados está sendo aplicado. Dada a necessidade de se pesquisar técnicas para auxiliar o usuário na compreensão e utilização do conhecimento descoberto em um processo de mineração de dados esta sendo desenvolvido no Laboratório de Inteligência Computacional (ICMC-USP) um ambiente para exploração de regras denominado RULEE (Rule Exploration Environment), apresentando características de apoio ao usuário na compreensão e identificação do conhecimento interessante.
Membro: Solange Oliveira Rezende.
2.   2007-2007. Análise Visual de Dados Complexos: Técnicas e Processos
Este projeto mantém o foco da pesquisadora em Mineração Visual de Dados, linha em que vem atuando desde 2001, até o momento bastante orientada ao desenvolvimento de técnicas de visualização exploratória e de mineração visual de uso geral. Nesta nova etapa, nossa meta é avançar na busca por soluções efetivas de análise de dados apoiadas por representações visuais interativas, explorando a rede de colaborações que vem sendo estabelecida nos últimos anos. Pretendemos atuar prioritariamente no tratamento dos seguintes problemas: o desenvolvimento de uma plataforma extensível de serviços de visualização de informação e mineração visual; a integração entre técnicas de mineração e de visualização de modo a ampliar a escalabilidade das últimas; bem como investigar o uso de representações visuais interativas para apoiar usuários em processos de mineração de dados, e de regras de associação em particular; e adaptações e extensões de técnicas de mineração visual de dados para aplicações específicas. (Processos CNPq 305861/2006-0 e 501777/2007-5.)
Membro: Maria Cristina Ferreira de Oliveira.
3.   2007-2007. Arquiteturas Inteligentes para Controle de Robos - AICOR
O desenvolvimento de arquiteturas inteligentes de controle para robôs atuarem ambientes dinâmicos tem sido tema de pesquisas na área de robótica. A complexidade deste tema varia de acordo com as necessidades exigidas para cada robô. Deseja-se que os robôs possam interagir com as pessoas de uma forma amigável e que além de auxiliar as pessoas, aprenda a realizar tarefas através desta interação. Este problema se torna ainda mais complexo quando se considera não apenas um robô, mas um time de robôs. Neste caso, espera-se que os robôs colaborem uns com os outros na execução de uma tarefa. Além disso, cada robô deve ser capaz de planejar trajetórias e replanejá-las em caso de situações inesperadas. Neste projeto pretende-se trabalhar objetivando a realização de dois subprojetos. O primeiro visa o desenvolvimento de uma arquitetura robótica inspirada da Teoria do Controle de Estímulos. Esta arquitetura deve ser capaz de simular o aprendizado do responder diferenciadamente a partir de estímulos discriminativos do ambiente, caracterizando o aprendizado dos robôs a partir de interações sociais. A arquitetura empregará mecanismos inspirados no condicionamento operante e aprendizado por reforço relacional. O segundo subprojeto visa desenvolver uma arquitetura de controle para navegação autônoma de múl\-ti\-plos robôs denominada ACIn. Para isto, serão investigadas algumas técnicas consideradas inteligentes, tais como, Redes Neurais Artificiais, Campos Potenciais e Campos Potenciais baseados em Problema do Valor de Contorno (PVC). Tais técnicas, normalmente utilizadas para um único robô, serão adaptadas para tornar possível o controle de múltiplos robôs sob arquitetura ACIn. No entanto, o fato de nosso interesse maior ser o controle de multiplos robôs, a pesquisa em controle de um único robô se faz necessária e também faz parte de nossos objetivos dar continuidade a pesquisa que estamos desenvolvendo com um único robô.
Membro: Roseli Aparecida Francelin Romero.
4.   2007-2007. Computational Modelling of Complex Systems using Data, Image and Text Mining
O objetivo geral deste projeto, o qual pode ser caracterizado como um projeto de pesquisa científica e tecnológica, é pesquisar, propor e desenvolver soluções para a representação, indexação, modelagem e análise de dados complexos para possibilitar que um analista do domínio possa compreender os inter-relacionamentos existentes nos dados, imagens e textos, de modo a auxiliá-lo a tomar decisões nos processos de recuperação de informação, descoberta de conhecimento e diagnóstico. O projeto visa o desenvolvimento de um ferramental teórico e prático que auxilie analistas na modelagem desse tipo de sistemas complexos, com foco nos temas de: indução de modelos simbólicos com aplicações em sériestemporais e dados sequenciais; anáise de bases de dados não-estruturados e semi-estruturados para mineração de textos; mineração de imagens em um sistema de arquivamento e recuperação de imagens médicas por conteúdo
Membro: Gustavo Enrique de Almeida Prado Alves Batista.
5.   2007-2007. CROWS - Construção e mapeamento de ontologias para a Web Semântica

Membro: Sandra Maria Aluísio.
6.   2007-2007. Desenvolvimento de Sistemas de Controle para Times de Futebol de Robôs
Este projeto de extensão visa a organização de uma equipe de alunos para participarem de Competições Brasileiras de Robótica (CBR). Anualmente, temos participado de CBR e levado o Grupo Warthog do Campus da USP de São Carlos, para competir com os seus robôs, em diversas categorias. Temos recebido apoio tanto da Pro-Reitoria de Graduação, como da ProReitoria de Cultura e Extensão e do ICMC-USP para que aproximadamente 20 alunos possam participar dos eventos. Este projeto envolve também desenvolvimento de pesquisa e possui vários alunos de pósgraduação e graduação envolvidos.
Membro: Roseli Aparecida Francelin Romero.
7.   2007-2007. FAPESP TIDIA-Ae (fase 2) Aprendizado Eletronico sobre Plataforma de Redes de Alta Velocidade
Os principais objetivos do Projeto de Aprendizagem Eletrônica (TIDIA-Ae) são a pesquisa e o desenvolvimento na área de tecnologia da informação voltada para especificação, projeto e implementação de ferramentas aplicáveis à área de Educação a Distância (EaD). A idéia é desenvolver soluções flexíveis de grande impacto social, porém a um baixo custo, devido à utilização de plataformas livres no seu desenvolvimento.
Membro: Rudinei Goularte.
Os principais objetivos do Projeto de Aprendizagem Eletrônica (TIDIA-Ae) são a pesquisa e o desenvolvimento na área de tecnologia da informação voltada para especificação, projeto e implementação de ferramentas aplicáveis à área de Educação a Distância (EaD). A idéia é desenvolver soluções flexíveis de grande impacto social, porém a um baixo custo, devido à utilização de plataformas livres no seu desenvolvimento.
Membro: Maria da Graca Campos Pimentel.
8.   2007-2007. FINEP - Avaliacao Middleware Ginga
Projeto: Avaliação do Middleware Ginga Financiamento: FINEP Número: 01.07.0110.00. Período: 08/2007 a 07/2008 Rede: UFSCar, ICMC-USP-São Carlos, UNICAMP, CENPRA, PUC-RIO, UFPB, C.E.S.A.R., Instituto Genius. No projeto Avaliação do Middleware Ginga cada instituição da rede de produção é responsável por resultados e focos específicos, todos porém visando a avaliação do e a apresentação de contribuições ao middleware Ginga adotado pelo Sistema Brasileiro de TV Digital. Esses trabalhos têm sido realizados através da construção de aplicações ou de realização de extensões do middleware. A equipe do ICMC-USP-São Carlos ficou responsável pela extensão do middleware Ginga para permitir a apresentação de conteúdo MPEG-4 com alta interatividade. Esse conteúdo inclui a especificação MPEG-J do padrão MPEG-4, a qual permite que programas Java possam manipular conteúdo MPEG-4. A equipe é hoje formada por três pesquisadores, quatro alunos graduados (mestrandos e doutorandos) e quatro alunos graduandos. Em conjunto com a equipe da UFSCAr, a equipe do ICMC investiga abordagens para facilitar a autoria e a gestão de conteúdo interativo por usuários não especialistas, envolvendo os temas: Interação usuário-computador e Computação ubíqua voltados à gestão e à geração de conteúdo interativo
Membro: Maria da Graca Campos Pimentel.
9.   2007-2007. Fortalecimento das Áreas de Computação de Alto Desempenho e Inteligência Computacional do Programa de Pós-Graduação em Informática da UFES
O objetivo central consiste em fortalecer e incrementar as interações entre as linhas de pesquisa de Inteligência Computacional e Computação de Alto Desempenho do Programa de Pós-graduação em Informática da UFES, contando para isso com o apoio de grupos de pesquisa de programas de pós-graduação já consolidados da COPPE/UFRJ e da USP/São Carlos. O grupo de pesquisadores da COPPE/UFRJ irá apoiar e interagir fundamentalmente com os pesquisadores da linha de Computação de Alto Desempenho do programa não consolidado, enquanto que o grupo de pesquisa da USP/São Carlos irá interagir e apoiar os pesquisadores da linha de Inteligência Computacional. Coordenador Geral: Alberto Ferreira de Souza (UFES). Vice-coordenadores: Alvaro Luiz Gayoso de Azeredo Coutinho (COPPE/UFRJ) e Maria Carolina Monard (ICMC/USP).
Membro: Solange Oliveira Rezende.
10.   2007-2007. Geração de Malhas e Simulação Numérica de Escoamento de Fluidos

Membro: Rodrigo Fernandes de Mello.
11.   2007-2007. Gestão de pessoas e identificação de competências estratégicas em unidades descentralizadas da Embrapa - o caso Embrapa Pecuária Sudeste
O projeto objetiva desenvolver e validar uma metodologia para o dimensionamento do quadro de pessoal e para a definição de competências estratégicas para Unidades Descentralizadas da Embrapa. A metodologia proposta será validada na Embrapa Pecuária Sudeste. Na primeira etapa da proposta são identificadas e priorizadas as tecnologias-chave para a unidade. Em seguida, as competências estratégicas para atender às demandas identificas são definidas. A terceira etapa contempla o mapeamento de competências existentes e sua projeção no médio/longo prazo e a evolução do quadro de pessoal da unidade.
Membro: Ricardo Marcondes Marcacini.
O projeto objetiva desenvolver e validar uma metodologia para o dimensionamento do quadro de pessoal e para a definição de competências estratégicas para Unidades Descentralizadas da Embrapa. A metodologia proposta será validada na Embrapa Pecuária Sudeste. Na primeira etapa da proposta são identificadas e priorizadas as tecnologias-chave para a unidade. Em seguida, as competências estratégicas para atender às demandas identificas são definidas. A terceira etapa contempla o mapeamento de competências existentes e sua projeção no médio/longo prazo e a evolução do quadro de pessoal da unidade. Por fim, na última etapa, serão levantadas as dificuldade e limitações da metodologia adotada.
Membro: Solange Oliveira Rezende.
12.   2007-2007. Ginga
Este pojeto tem por objetivo realizar extensões ao Ginga, o middleware do Sistema Brasileiro de TV Digital, de modo a permitir modos de interatividade avançados
Membro: Marcelo Garcia Manzato.
13.   2007-2007. Ginga, Convênio FINEP n ° 01.07.0110.00 (05/2007 - )
Este pojeto tem por objetivo realizar extensões ao Ginga, o middleware do Sistema Brasileiro de TV Digital, de modo a permitir modos de interatividade avançados.
Membro: Rudinei Goularte.
14.   2007-2007. Investigação de Técnicas para a Melhoria de Desempenho no Processamento de Consultas em Ambientes de Data Warehousing
Este projeto de pesquisa tem como objetivo investigar técnicas voltadas à melhoria do desempenho no processamento de consultas em ambientes de data warehousing. Em particular, este projeto propõe investigar ambientes convencionais e não-convencionais de data warehousing. O primeiro ambiente é caracterizado pela manipulação de medidas numéricas que são, em geral, aditivas. O segundo ambiente, no contexto deste projeto, é caracterizado pela manipulação de dados georeferenciados.
Membro: Cristina Dutra de Aguiar.
15.   2007-2007. Machine Learning with Imbalanced Data Sets
Diversos fatores podem influenciar no desempenho de classificação de novos exemplos dos métodos de Aprendizado de Máquina - AM -, os quais são freqüentemente utilizados em Descoberta de Conhecimento em Bases de Dados - KDD. Entre eles está o problema de aprender na presença de classes desbalanceadas ou assimétricas. Esse problema ocorre quando algumas classes apresentam um número muito maior de exemplos do que outras. Pesquisadores têm reportado que classes desbalanceadas ocorrem com freqüência em bases de dados do mundo real originárias de diversos domínios de aplicação. Mesmo com toda pesquisa realizada sobre o assunto, não existe um consenso sobre quais abordagens são as mais indicadas para lidar com esse problema. Este projeto de pesquisa tem como principal objetivo realizar uma ampla pesquisa sobre o problema de classes desbalanceadas. Essa pesquisa irá investigar como o problema de classes desbalanceadas influencia o desempenho obtido por sistemas de AM. Como resultado final espera-se obter um conjunto de recomendações que possam auxiliar um pesquisador/usuário com um conjunto de dados com classes desbalanceadas a melhor tratar esse problema.
Membro: Gustavo Enrique de Almeida Prado Alves Batista.
16.   2007-2007. MICAD - Mineração de Imagens Médicas por Conteúdo apoiando CAD: Aplicações em um Hospital Escola
O volume de dados e imagens gerados nos hospitais e clínicas médicas cresce a um ritmo cada vez mais acelerado, devido ao barateamento do custo de coletar e armazenar tais informações. O diagnóstico baseado em imagens pode ser grandemente aprimorado se o especialista da área médica puder recuperar de modo rápido e pertinente informações que o apoiem na tomada de decisão. Por exemplo, recuperar casos parecidos com o que está sendo analisado, verificar o inter-relacionamento entre itens de dado e tratamentos/resultados alcançados, bem como visualizar num piscar de olhos a evolução de casos semelhantes e já diagnosticados por colegas especialistas. Este projeto visa o desenvolvimento de técnicas e algoritmos que constituirão o arcabouço teórico e prático para o desenvolvimento de ferramentas que possibilitem compreender o inter-relacionamento entre as características das imagens (que as representam) e seu significado semântico, de modo a obter os dados mais relevantes para serem utilizados para responder consultas por similaridade para apoiar o processo de decisão na elaboração de diagnósticos médicos. Os resultados alcançados por este projeto serão aplicados a sistemas de arquivamento e recuperação de imagens médicas (PACS), permitindo alcançar um patamar mais elevado em tais sistemas. Ou seja, sistemas PACS que já organizam as imagens e dados e pacientes, passarão a apoiar a tomada de decisão para suporte ao diagnóstico médico por imagens.
Membro: Cristina Dutra de Aguiar.
17.   2007-2007. Modelagem Computacional de Sistemas Complexos utilizando Mineração de Dados, Imagens e Textos
O objetivo geral deste projeto, o qual pode ser caracterizado como um projeto de pesquisa científica e tecnológica, é pesquisar, propor e desenvolver soluções para a representação, indexação, modelagem e análise de dados complexos para possibilitar que um analista do domínio possa compreender os inter-relacionamentos existentes nos dados, imagens e textos, de modo a auxiliá-lo a tomar decisões nos processos de recuperação de informação, descoberta de conhecimento e diagnóstico. O projeto visa o desenvolvimento de um ferramental teórico e prático que auxilie analistas na modelagem desse tipo de sistemas complexos, com foco nos temas de: indução de modelos simbólicos com aplicações em sériestemporais e dados sequenciais; anáise de bases de dados não-estruturados e semi-estruturados para mineração de textos; mineração de imagens em um sistema de arquivamento e recuperação de imagens médicas por conteúdo.
Membro: Alneu de Andrade Lopes.
18.   2007-2007. MultiVis: Múltiplo Mapeamento Visual de Dados Complexos de Alta Dimensionalidade
O avanço da tecnologia da informação tem disponibilizado uma enorme quantidade de dados, oriundos das mais diversas fontes. A carência de técnicas adequadas para analisá-los gera um grande acúmulo e uma grande demanda por soluções computacionais para a interpretação das informações neles contidas. Além disso, estima-se que aproximadamente 85% de toda a informação corporativa está disponível em forma não estruturada, em arquivos de texto, sendo que diversas aplicações se baseiam em texto como forma central de representação de informação. Pesquisadores do grupo de visualizaçãodo ICMC têm investigado a integração de técnicas de vários domínios para possibilitar a análise de ados multi-dimensionais (tabulares e textuais) em diversos projetos de desenvolvimento e aplicação de técnicas de análise de dados com forte componente visual (mineração visual de dados) (http://infoserver.lcad.icmc.usp.br/infovis2). Recentement, este trabalho tem focalizado em técnicas de projeçãoo e posicionamento de pontos para tratamento de dados multi-dimensionais. Em especial, a pesquisa em mineração visual de coleções de documentos vem obtendo resultados expressivos, com produção de protótipos, publicação de artigos científicos, e apresentação de palestras e tutoriais. Este projeto dá continuidade à atuação do grupo em análise visual de dados complexos, abordando principalmente a maior integração de técnicas de mineraçãoao processo visual de análise de dados, e o interfaceamento da análise de dados tabulares e textuais com outras modalidades de apresentação, como visualizações a partir de imagens. Dois problemas específicos serão tratados neste contexto: 1) a coordenação entre as várias técnicas e as várias modalidades de visualização e mineração; e 2) a análise da evolução no tempo de dados de diversos tipos, principalmente das coleções de documentos. (Projeto Universal CNPq, Processo 484256/2007-6)
Membro: Maria Cristina Ferreira de Oliveira.
Descrição: Os dois problemas específicos que pretendemos tratar dentro deste contexto referem-se: 1) aos aspectos de coordenação entre as várias técnicas e as várias modalidades de visualização e mineração; e 2) aos aspectos da análise de evolução nos tempo de dados de diversos tipos, principalmente das coleções de documentos. Com este projeto desejamos viabilizar a disponibilização de um servidor confiável com todas as técnicas já desenvolvidas e as futuras, equipar o laboratório para os atuais e próximos trabalhos do grupo, e viabilizar os dois intercâmbios internacionais estabelecidos no grupo, um com a Holanda (envolvendo a Technological University Delft e uma firma, em Delft, chamada Treparel) e outro com a University of Massachusetts Lowell - EUA, para expandir a discussão dos problemas tratados pelo grupo.
Membro: Fernando Vieira Paulovich.
19.   2007-2007. PorSimples: Simplificação Textual do Português para Inclusão e Acessibilidade Digital
(FAPESP/Microsoft Research nro. 2007/54565-8) Desenvolvimento de recursos e ferramentas para simplificação de textos em português, visando ao auxílio de usuários com dificuldades de leitura e sua posterior inclusão digital
Membro: Thiago Alexandre Salgueiro Pardo.
Propomos o desenvolvimento de uma tecnologia que foca uma área de pesquisa do processamento de língua natural, a simplificação textual, sendo disponibilizada em dois sistemas destinados a públicos alvos diferentes: (i) um sistema de autoria para ajudar autores a produzir textos simplificados que serão validados pelos próprios autores, e (ii) um sistema facilitador para ajudar a leitura de um dado conteúdo da Web. Este último inclui tarefas de sumarização textual, simplificação, e apresentação do texto salientando as relações entre as idéias do texto. Quanto aos cenários de uso, esta tecnologia se destina a facilitar o acesso à informação dos analfabetos funcionais, principalmente e, de pessoas com outras deficiências cognitivas como surdes congênita e portadores de afasia e dislexia, na leitura de textos eletrônicos em português produzidos pelo governo ou por jornais de grande circulação; as crianças em fase de aprendizado de leitura; ou ainda adultos em fase de alfabetização.
Membro: Sandra Maria Aluísio.
desenvolvimento de uma tecnologia que foca uma área de pesquisa do processamento de língua natural, a simplificação textual, sendo disponibilizada em dois sistemas destinados a públicos alvos diferentes: (i) um sistema de autoria para ajudar autores a produzir textos simplificados que serão validados pelos próprios autores, e (ii) um sistema facilitador para ajudar a leitura de um dado conteúdo da Web. Este último inclui tarefas de sumarização textual, simplificação, e apresentação do texto salientando as relações entre as idéias do texto. Quanto aos cenários de uso, esta tecnologia se destina a facilitar o acesso à informação dos analfabetos funcionais, principalmente e, de pessoas com outras deficiências cognitivas
Membro: Renata Pontin de Mattos Fortes.
20.   2007-2007. Programa de Mestrado-Willian Dener de Oliveira
Operação de Busca Exata aos k-Vizinhos mais Próximos Reversos em Espaços Métricos
Membro: Caetano Traina Junior.
21.   2007-2007. Projeto GestorPsi - Um Sistema para Gestão de Clínicas de Psicologia
O objetivo deste projeto foi desenvolver um sistema informatizado que possibilitasse a criação de métodos padronizados para: 1) O registro de informações clínicas, administrativas e de serviços psicológicos prestados na área clínica e da saúde; 2) A avaliação de resultados de serviços psicológicos prestados nas instituições. O sistema tinha por intuito permitir que clínicas-escola, clínicas particulares e instituições públicas e privadas pudessem ter maior controle sobre serviços prestados, utilizando os registros para realização de pesquisas científicas e com a possibilidade de avaliar os benefícios obtidos com os serviços prestados a população. O sistema possibilitava o intercâmbio de dados padronizados entre diferentes instituições de ensino e pesquisa, criando oportunidade para a realização de estudos na área de "psicoterapia baseada em evidências".
Membro: Kamila Rios da Hora Rodrigues.
22.   2007-2007. Projeto Universal - Operadores e Algoritmos para Recuperação de Dados Complexos por Similaridade
Auxílio Integrado à Pesquisa do CNPq, Projeto Nº 472602/2007-1.
Membro: Elaine Parros Machado de Sousa.
23.   2007-2007. Proposta e avaliação de uma técnica para detecção automática de falhas em sistemas computacionais distribuídos
A limitação das técnicas de alta disponibilidade atuais e o desenvolvimento da área de detecção de novidades motivou este plano de pesquisa que visa o estudo, proposta e avaliação de uma técnica para detecção automática de falhas em sistemas computacionais distribuídos. Durante estudos nas áreas de alta disponibilidade, detecção de falhas e detecção de novidades verificou-se a necessidade de uma técnica on-line para detecção de novidades capaz de atribuição de graus de novidade a eventos ocorridos no sistema. Essas deficiências motivam este projeto que visa propor uma técnica para detecção de novidades com capacidade de adaptação, atribuição de graus de novidade (considerando novidades temporais e de contexto), funcionamento on-line e com baixa complexidade computacional, para que possa ser adotado em ambientes de produção. A técnica proposta deve ser comparada às demais da literatura.
Membro: Rodrigo Fernandes de Mello.
24.   2007-2007. Qualipso - Quality Platform for Open Source Software
The QualiPSo consortium has been founded to help industries and governments fuel innovation and competitiveness by providing the way to use trusted low-cost, flexible Open Source Software to develop innovative and reliable information systems. To meet this goal, QualiPSo intends to define and implement the technologies, processes and policies to facilitate the development and use of Open Source software components, with the same level of trust traditionally offered by proprietary software. This will leverage the Open Source Software development current practices to sound, well recognised and established industrial operations. QualiPSo initiative A unique alliance of European, Brazilian and Chinese ICT industry players, SMEs, governments and academics to help industries and governments fuel innovation and competitiveness with Open Source software. QualiPSo is one of the largest Open Source initiative funded by the European Commission, and is funded under EU?s sixth framework program (FP6), as part of the Information Society Technologies (IST) initiative.
Membro: Renata Pontin de Mattos Fortes.
25.   2007-2007. Terminologia de Biocombustíveis: descrição semântica e morfológica com vistas à sistematização

Membro: Sandra Maria Aluísio.
26.   2007-2007. Um Framework de Software para a Computação Paralela e Distribuída em Redes P2P

Membro: Rodrigo Fernandes de Mello.
27.   2007-2007. Uso de Redes Complexas na Avaliação de Traduções Automáticas
Este projeto, inserido no contexto de avaliação de traduções automáticas, busca o desenvolvimento de novas técnicas de discrimanação de traduções com o uso de redes complexas aliada ao reconhecimento de padrões por algoritmos de Aprendizado de Máquina.
Membro: Diego Raphael Amancio.

2006

1.   2006-2006. CAPES/MECD Espanha: Tradução Automática, Alinhamento de Textos Bilíngües Espanhol-Português e Buscas Linguisticamente Enriquecidas na Web e Bibliotecas Digitais
Este projeto surge como resultado do interesse mútuo de dois grupos de pesquisadores da área de Processamento de Línguas Naturais (PLN), atualmente envolvidos em projetos de pesquisa afins e potencialmente aplicáveis em produtos de interesse comum e de impacto social e comercial não desprezível. É o caso de tradutores automáticos português-espanhol e de máquinas de busca (search engines) para a web, enriquecidas com conhecimento lingüístico, português e/ou espanhol. O grupo brasileiro, Núcleo Interinstitucional de Lingüística Computacional (NILC), associado ao Instituto de Ciências Matemáticas e de Computação (ICMC) da Universidade de São Paulo (USP), Além do NILC, outro grupo de pesquisa também associado ao ICMC-USP é colaborador do projeto aqui descrito: o Laboratório de Inteligência Computacional (LABIC). O grupo espanhol faz parte do grupo de pesquisa Transducens, do Departament de Lenguajes y Sistemas Informáticos (DLSI) da Universidade de Alicante. Os objetivos deste projeto de pesquisa no âmbito do intercâmbio incluem: (a) a pesquisa de métodos e técnicas de tradução automática baseados na extração automática de regras a partir de corpus de textos paralelos (bitextos), e sua aplicação ao par de línguas português-espanhol (já em desenvolvimento); (b) a pesquisa de métodos e técnicas de desambigüação lexical no contexto da tradução automática (já em desenvolvimento); (c) a pesquisa de métodos e técnicas de buscas estendidas e linguisticamente enriquecidas para aumentar a precisão e a cobertura de sistemas de busca da web e de bibliotecas digitais; em particular, considerar a variante de busca translingüe (já em desenvolvimento).
Membro: Solange Oliveira Rezende.
2.   2006-2006. Estudo de Representações Semânticas Lexicais e Ontologias para Recuperação de Informação Textual através de Técnicas de Aprendizado de Máquina
Estudo de formas de representação de palavras baseada em semântica e em ontologias para recuperar informação significativa em textos escritos na língua portuguesa. Técnicas de aprendizado de máquina, tais como as redes neurais artificiais serão consideradas para esta finalidade, incluindo modelos biologicamente mais plausíveis. O sistema proposto poderá ser aplicado em recuperação de informação textual em sistemas tutores inteligentes.
Membro: João Luís Garcia Rosa.
3.   2006-2006. FAROL - Fortalecimento e Integração das Competências do Processamento da Língua
CAPES/PROCAD #0035050: FAROL - Fortalecimento e Integração das Competências do Processamento da Língua. Descrição: O projeto proporciona uma integração intra-regional (entre PUCRS e UNISINOS e entre UFSCar e USP de São Carlos) e uma integração inter-regional (entre as regiões Sul e Sudeste), e explora as vocações institucionais na área do processamento da língua. Participam do projeto FAROL quatro equipes, sendo duas da região Sul (especificamente, do Programa de Pós-Graduação em Ciência da Computação da PUCRS, mestrado e doutorado, nota 4, e do Programa de Pós-Graduação em Computação Aplicada da UNISINOS, mestrado, nota 3), e duas da região Sudeste (a saber, do Programa de Pós-Graduação em Ciências da Computação e Matemática Computacional da USP de São Carlos, mestrado e doutorado, nota 5, e do Programa de Pós-Graduação em Ciências da Computação da UFSCar, mestrado, nota 3). Nesse sentido, nosso objetivo geral será de propiciar aos grupos envolvidos um fluxo mais efetivo de competências, que fortaleça a área do processamento da língua nos programas nota 3, e consolide esta área no programa nota 4, com o apoio do programa com nota 5. Ao mesmo tempo, as competências específicas na área do processamento da língua, as quais não são coincidentes nos quatro grupos, poderão fluir de modo a tecer-se um quadro de ligações o qual promoverá o desenvolvimento dos quatro grupos, cada um em determinados focos de pesquisa dos quais se poderá beneficiar na integração
Membro: Thiago Alexandre Salgueiro Pardo.
4.   2006-2006. Institute Factory of Millennium
Os objetivos gerais do Instituto Fábrica do Milênio (IFM) podem ser entendidos como a proposição, o desenvolvimento e a disseminação de mecanismos para o aumento da competitividade e do conhecimento científico e tecnológico das empresas instaladas no país, através da formação de um cluster de pesquisas integradas, abordando os os temas que determinam hoje a competitividade de empresas de manufatura. O conjunto de instituições e projetos envolvidos formam uma massa crítica que os capacitam a desenvolver um espectro de pesquisas (que abrangem desde o desenvolvimento de tecnologias industriais básicas até elementos de gestão) que podem, se organizadas de forma integrada, contribuir efetivamente para o desenvolvimento das indústrias brasileiras. Descrição completa desse projeto encontra-se em: http://www.ifm.org.br.
Membro: Gustavo Enrique de Almeida Prado Alves Batista.
5.   2006-2006. Instituto Fábrica do Milenio (IFM II)
EDITAL: Edital MCT/CNPq 01/2005 - Institutos do Milênio 2005 - 2008 Coordenador do Instituto: João Fernando Gomes de OIiveira Instituição Sede do Instituto: Escola de Engenharia de São Carlos - USP Responsavel no ICMC-USP: Solange Oliveira Rezende Mesmo com os excelentes resultados obtidos através dos programas desenvolvidos no IFM I, observou-se que é possível aperfeiçoar a metodologia adotada. Assim, o IFM II está sendo concebido com o propósito de pesquisar, desenvolver e disseminar de forma integrada e colaborativa um corpo de conhecimento capaz de contribuir para a busca de sustentabilidade em nível mundial à cadeia produtiva brasileira de bens de capital. Portanto, nesta nova fase, buscar-se-á aperfeiçoar as formas de integração com empresas, integração regional e intercâmbio com instituições estrangeiras de renome. E, além destes esforços, serão concebidas formas ainda melhores (mais eficazes, acessíveis e inovadoras), a fim de consolidar os resultados obtidos. O IFM I era dividido em áreas que desenvolviam trabalhos de relevância, mas que possuíam uma integração relativa. Os pesquisadores do IFM pertenciam a uma determinada área e desenvolviam projetos daquela área única e exclusivamente. Agora, no IFM II, vamos trabalhar com pacotes de trabalho, work packages (WPs) e subprojetos (SPs). Todos os pesquisadores estarão alocados em diferentes SPs, conforme se necessite de sua capacitação para o desenvolvimento de alguma atividade específica. Além das atividades conjuntas com as empresas, o IFM tem oferecido informações tecnológicas aos pesquisadores e às empresas através de seus portais. O portal www.ifm.org.br é o sistema de gestão das informações acadêmicas do instituto. Detalhes sobre o projeto podem ser obtidos no portal do IFM.
Membro: Solange Oliveira Rezende.
6.   2006-2006. Integração de bases de dados heterogêneas e distribuídas para apoio às atividades de assistência, ensino e pesquisa nas Unidades do Centro de Saúde Escola da FMRP/USP

Membro: Cristina Dutra de Aguiar.
7.   2006-2006. MIRVisIM - Mineração, Indexação, Recuperação e Visualização de Dados em Sistemas de Arquivamento de Imagens Médicas
Este projeto visa propor e implementar novas técnicas e ferramentas que permitam extrair o conhecimento inerente a exames médicos por imagens, aumentando a funcionalidade de um sistema PACS em desenvolvimento (cbPACS). O ferramental a ser desenvolvido depende de quatro vertentes de pesquisa, desde o suporte básico do desenvolvimento de técnicas de extração de características de imagens de modo a propiciar sua recuperação por conteúdo e efetuar consultas por similaridade; o desenvolvimento e aprimoramento de métodos de acesso eficientes para processar tais consultas de modo rápido e efetivo; o desenvolvimento de técnicas de mineração de dados através de regras de associação e seleção de atributos. Todas as vertentes anteriores serão suportadas por técnicas de visualização de dados que serão propostas e implementadas visando auxiliar o desenvolvimento e afinamento dos algoritmos das vertentes anteriores. A recuperação de imagens por conteúdo vale-se da extração de características das imagens, porém as características extraídas individualmente têm pouco significado de forma isolada para a busca de imagens específicas. Assim, para que as consultas por similaridade recuperem imagens significativas em aplicações destinadas ao usuário final, é necessário que as consultas especifiquem detalhadamente como as características devem ser comparadas, integrando diversas características na mesma consulta. Este projeto objetiva também disponibilizar ferramental para auxiliar o preparo das consultas que serão embutidas em aplicativos para o usuário final. Para atingir tal meta, o projeto deve explorar a utilização de maneira integrada de quatro recursos: sistemas de bancos de dados relacionais; indexação de dados em domínios métricos; consultas por similaridade; e mineração de imagens.
Membro: Robson Leonardo Ferreira Cordeiro.

Membro: José Fernando Rodrigues Júnior.
Este projeto visa propor e implementar novas técnicas e ferramentas que permitam extrair o conhecimento inerente a exames médicos por imagens, aumentando a funcionalidade de um sistema PACS em desenvolvimento (cbPACS). O ferramental a ser desenvolvido depende de quatro vertentes de pesquisa, desde o suporte básico do desenvolvimento de técnicas de extração de características de imagens de modo a propiciar sua recuperação por conteúdo e efetuar consultas por similaridade; o desenvolvimento e aprimoramento de métodos de acesso eficientes para processar tais consultas de modo rápido e efetivo; o desenvolvimento de técnicas de mineração de dados através de regras de associação e seleção de atributos. Tais atividades serão suportadas por técnicas de visualização de dados que serão propostas e implementadas visando auxiliar o desenvolvimento e afinamento dos algoritmos das vertentes anteriores. A recuperação de imagens por conteúdo vale-se da extração de características das imagens, porém as características extraídas individualmente têm pouco significado de forma isolada para a busca de imagens específicas. Assim, para que as consultas por similaridade recuperem imagens significativas em aplicações destinadas ao usuário final, é necessário que as consultas especifiquem detalhadamente como as características devem ser comparadas, integrando diversas características na mesma consulta. Este projeto objetiva também disponibilizar ferramental para auxiliar o preparo das consultas que serão embutidas em aplicativos para o usuário final. Para atingir tal meta, o projeto deve explorar a utilização de maneira integrada de quatro recursos: sistemas de bancos de dados relacionais; indexação de dados em domínios métricos; consultas por similaridade; e mineração de imagens.
Membro: Elaine Parros Machado de Sousa.
Este projeto visa propor e implementar novas técnicas e ferramentas que permitam extrair o conhecimento inerente a exames médicos por imagens, aumentando a funcionalidade de um sistema PACS em desenvolvimento (cbPACS). O ferramental a ser desenvolvido depende de quatro vertentes de pesquisa, desde o suporte básico do desenvolvimento de técnicas de extração de características de imagens de modo a propiciar sua recuperação por conteúdo e efetuar consultas por similaridade; o desenvolvimento e aprimoramento de métodos de acesso eficientes para processar tais consultas de modo rápido e efetivo; o desenvolvimento de técnicas de mineração de dados através de regras de associação e seleção de atributos. Todas as vertentes anteriores serão suportadas por técnicas de visualização de dados que serão propostas e implementadas visando auxiliar o desenvolvimento e afinamento dos algoritmos das vertentes anteriores.
Membro: Cristina Dutra de Aguiar.
Este projeto visa propor e implementar novas técnicas e ferramentas que permitam extrair o conhecimento inerente a exames médicos por imagens, aumentando a funcionalidade de um sistema PACS em desenvolvimento (cbPACS). O ferramental a ser desenvolvido depende de quatro vertentes de pesquisa, desde o suporte básico do desenvolvimento de técnicas de extração de características de imagens de modo a propiciar sua recuperação por conteúdo e efetuar consultas por similaridade; o desenvolvimento e aprimoramento de métodos de acesso eficientes para processar tais consultas de modo rápido e efetivo; o desenvolvimento de técnicas de mineração de dados através de regras de associação e seleção de atributos. Tais atividades serão suportadas por técnicas de visualização de dados que serão propostas e implementadas visando auxiliar o desenvolvimento e afinamento dos algoritmos das vertentes anteriores. A recuperação de imagens por conteúdo vale-se da extração de características das imagens, porém as características extraídas individualmente têm pouco significado de forma isolada para a busca de imagens específicas. Assim, para que as consultas por similaridade recuperem imagens significativas em aplicações destinadas ao usuário final, é necessário que as consultas especifiquem detalhadamente como as características devem ser comparadas, integrando diversas características na mesma consulta. Este projeto objetiva também disponibilizar ferramental para auxiliar o preparo das consultas que serão embutidas em aplicativos para o usuário final. Para atingir tal meta, o projeto deve explorar a utilização de maneira integrada de quatro recursos: sistemas de bancos de dados relacionais; indexação de dados em domínios métricos; consultas por similaridade; e mineração de imagens.
Membro: Caetano Traina Junior.
8.   2006-2006. ProCaCoSa: Processamento de Cadeias de Co-referência para a Sumarização Automática de Textos em Português
Proc. Nro. 507030/2004-4
Membro: Thiago Alexandre Salgueiro Pardo.
9.   2006-2006. Projeto Fapesp Temático: Mecânica dos Fluidos não Estacionária: Aplicações em Aeronáutica e em Reologia
Características comuns na simulação numérica de aplicações em aeroelasticidade e escoamentos com fronteiras livres são: a necessidade da representação de domínios com geometria complexa, a manipulação de malhas e a interpolação de propriedades. Estes problemas são tratados no campo da modelagem geométrica. Por outro lado, uma característica também presente em quase todos os campos da mecânica dos fluidos é que, comumente, estudos numéricos são demasiadamente dissociados de trabalhos experimentais e vice-versa. Uma maior integração entre estudos numéricos e experimentais em mecânica dos fluidos é, reconhecidamente, um objetivo importante e, possivelmente, um indicador do nível de amadurecimento de uma comunidade de pesquisa nesta área. Desta forma o objetivo central deste projeto é congregar pesquisadores atuando em cada uma destas áreas, tendo a área de modelagem geométrica como foco principal e integrador para as duas outras áreas do projeto. As pesquisas na área experimental terão o objetivo de validação dos modelos matemáticos e técnicas numéricas em aeroelasticidade.
Membro: Rodrigo Fernandes de Mello.
10.   2006-2006. Projeto Memória Virtual de São Carlos
O Projeto Memória Virtual de São Carlos tem como objetivo principal estabelecer a infra-estrutura computacional necessária para a informatização dos acervos históricos do município de São Carlos e região, de maneira a viabilizar acessibilidade, organização e preservação do patrimônio histórico e cultural das fazendas e museus da região de São Carlos. Os acervos disponíveis abrangem informações e bens de natureza diversa, como os acervos documentais, coleções bibliográficas, objetos museológicos, bens arquitetônicos, bens naturais, além de materiais multimeios, de valor histórico relevante. Dessa forma, pretende-se integrar e disponibilizar acervos do município dispersos fisicamente, utilizando ferramentas de software livre para a implementação e implantação de um sistema Web para acesso a esses acervos. Processo FAPESP 2003/06434. Período do Projeto: abril de 2004 a maio de 2008. Participação da pesquisadora como colaboradora a partir de junho de 2006.
Membro: Elaine Parros Machado de Sousa.
11.   2006-2006. Projeto PLN-Br: Recursos e Ferramentas para a Recuperação de Informação em Bases Textuais em Português do Brasil
CNPq (CTInfo) #550388/2005-2: Projeto PLN-Br: Recursos e Ferramentas para a Recuperação de Informação em Bases Textuais em Português do Brasil. Descrição: O objetivo geral deste projeto é a construção de um espaço interinstitucional de interação e intercâmbio de práticas de análise e investigação lingüístico-computacional acerca da representação e da recuperação de informação de natureza semântica e pragmático-discursiva veiculada por enunciados produzidos em português brasileiro. Este projeto conta com a participação de 7 grupos nacionais de PLN das seguintes instituições: USP/São Carlos (NILC), UFSCar, UNESP/Araraquara, PUC/RS, PUC/RJ, UNISINOS e Mackenzie/SP
Membro: Thiago Alexandre Salgueiro Pardo.
12.   2006-2006. Projeto Urano I
um único ou a vários docentes serem digitados repetidas vezes e/ouExiste atualmente uma grande variedade de aplicações que gerenciam dados relacionados a docentes, como o Currículo Lattes e, no caso da USP, os sistemas administrativos Júpiter e Fênix. Estas aplicações foram desenvolvidas de forma independente umas das outras, e armazenam dados complementares ou até mesmo repetidos. Neste sentido, este projeto visa desenvolver um banco de dados que permita a integração dos dados dos currículos de docentes, visando a elaboração de relatórios integrados e também a diminuição da necessidade dos mesmos dados relativos a em formatos diferentes. Esta integração, assim como a troca de dados entre as aplicações, é baseada na linguagem XML. Além de servir de base para a geração de relatórios simples, outro aspecto do projeto consiste em oferecer suporte à tomada de decisão, desde que a análise de dados relacionados a currículos de docentes pode subsidiar processos decisórios possibilitando o planejamento de ações de forma mais eficiente. Observação: Coordenadores: Cristina Dutra de Aguiar Ciferri e Caetano Traina Junior
Membro: Cristina Dutra de Aguiar.
13.   2006-2006. Terminologia em Língua Portuguesa da Nanociência e Nanotecnologia: Sistematização do Repertório Vocabular e Elaboração de Dicionário-Piloto (CNPq).
Instituições: Universidade de São Paulo e Universidade Federal de São Carlos Resumo:Nanociência e Nanotecnologia (doravante N&N) são atualmente áreas centrais das atividades de pesquisa, desenvolvimento e inovação nos países industrializados. Investimentos aplicados nessa área de conhecimento por esses países têm sido crescentes. No Brasil, o cenário para pesquisas em N&N já é promissor, entretanto, ainda há uma grande defasagem dos países do Hemisfério Sul em relação aos países desenvolvidos. Para acompanhar esse desenvolvimento científico e tecnológico que se deseja, além de investimentos financeiros expressivos e formação de recursos humanos especializados, é preponderante a sistematização de repertórios vocabulares em língua portuguesa (doravante LP). Sistematizar terminologias significa criar termos fiáveis de forma a facilitar a comunicação especializada, além de demonstrar que a LP está apta para nomear conceitos técnicos e científicos. Em outras palavras, ao mesmo tempo em que se promove a disseminação e a divulgação de conhecimentos e de tecnologias, fomenta-se a língua nacional, posto que não há ainda qualquer glossário e/ou dicionário de N&N em LP. A elaboração do Dicionário-Piloto em N&N parte do projeto intitulado "Desenvolvimento de uma Estrutura Conceitual para a Área de N&N", realizado por uma equipe do Núcleo Interinstitucional de Lingüística Computacional (NILC), sediado no Instituto de Ciências Matemáticas e de Computação (ICMC) da Universidade de São Paulo (USP), Campus de São Carlos (SP-Brasil). Portanto, serão percorridas as mesmas etapas que geraram o corpus e a estrutura conceitual em língua inglesa, a saber: compilação de corpus a partir de várias fontes e com características diversas; extração de termos por meio de vários métodos de extração automática, baseados na abordagem estatística; análise de taxonomias existentes para N&N em livros, páginas da Web e programas institucionais e governamentais dedicados a N&N.
Membro: Sandra Maria Aluísio.
14.   2006-2006. Uso de Redes Complexas na Avaliação de Traduções Automáticas
Este projeto visa amenizar o trabalho envolvido na avaliação de traduções automáticas, um dos grandes desafios das pesquisas em PLN, atualmente. A partir da modelagem de textos fonte e alvo como redes complexas, é possível extrair alguns padrões provenientes das medidas das redes que podem fornecer informação quanto ao nível de qualidade de tradutores automáticos, especialmente considerando as medidas de grau de saída e grau de entrada do grafo proveniente deste modelo.
Membro: Diego Raphael Amancio.

2005

1.   2005-2005. Desenvolvimento de uma Arquitetura de Controle para Robôs Sociais
O objetivo deste projeto é o desenvolvimento de uma arquitetura robótica inspirada da Teoria do Controle de Estímulos. Esta arquitetura deve ser capaz de simular o aprendizado do responder diferenciadamente a partir de estímulos discriminativos do ambiente, caracterizando o aprendizado dos robôs a partir de interações sociais. A arquitetura será desenvolvida com base nos mecanismos inspirados no condicionamento operante [Serio et al., 2004] e aprendizado por reforço relacional [Driessens, 2004] [Otterlo, 2005]. Devido ao grande espaço de busca e decisão, as ações e representações do ambiente, assim como o conhecimento adquirido, será representado empregando Lógica de Primeira Ordem [Russel & Norvig, 2003]. Para a validação e análise final dessa arquitetura, essa será testada no contexto do problema do desenvolvimento da atenção compartilhada [Bosa, 2002] [Dube et al., 2004] [Kaplan et al., 2004] [Déak & Triesh, 2004], uma habilidade social que emerge em seres humanos entre os 3 e 18 meses de idade. Estes testes serão realizados em um ambiente real, empregando uma cabeça robótica interativa. Entre as contribuições deste projeto, podem ser citados: 1) O desenvolvimento e a exploração de uma arquitetura robótica biologicamente inspirada, que formará uma ferramenta para o projeto de robôs sociais, composta por métodos e estruturas evidenciadas na teoria do Controle de Estímulos; 2) O desenvolvimento e a exploração de algoritmos e técnicas inspirados no condicionamento operante e no aprendizado por reforço relacional; 3) O estudo e a exploração da representação do conhecimento empregando redes neurais artificiais, lógica de primeira ordem e aprendizado por reforço, além de outras técnicas de representação simbólica; 4) O desenvolvimento de um sistema de visão e de um sistema motivacional para robôs sociais;
Membro: Roseli Aparecida Francelin Romero.
2.   2005-2005. Desenvolvimento de uma estrutura conceitual (ontologia) para a área de nanotecnologia
Os estudos iniciais para a concepção do Portal da Rede de Nanotecnologia da USP apontaram uma grande variedade de possíveis tópicos e atividades, ligados à pesquisa acadêmica e aplicações industriais, que podem ser adotados no mapa conceitual do Portal. De fato, um levantamento de portais e páginas da Internet dedicados à nanotecnologia, em inglês, português e espanhol, mostrou que as divisões variam enormemente, dependendo dos interesses específicos da Instituição ou indivíduos que produziram o portal. Por exemplo, há páginas em que a cobertura se restringe à bionanotecnologia, enquanto outras se concentram na fabricação de nanomáquinas e nanorobôs. Mencione-se, também, a quase completa inexistência de glossários abrangentes, pelo menos online. Os glossários de nanotecnologia encontrados são limitados, em abrangência e profundidade, sendo praticamente todos em inglês. Isso não é surpreendente, haja vista a natureza inter- e multidisciplinar dessa área que ainda está se consolidando. A partir das constatações mencionadas acima, decidimos realizar um estudo sobre terminologia para estabelecer uma estrutura conceitual (ontologia) para a nanotecnologia, que possa não apenas fornecer subsídios para produzir um Portal de alta qualidade e abrangente, mas também guiar a busca de oportunidades de mercado e oferta de tecnologias. Para este último objetivo, é importante dispor de ferramentas de processamento da informação para permitir integração universidade-empresa, principalmente nas áreas em que a terminologia específica possa variar do ambiente acadêmico para o industrial e empresarial.
Membro: Sandra Maria Aluísio.
3.   2005-2005. Dicionário Histórico do Português do Brasil (séculos XVI, XVII e XVIII)
A elaboração de um dicionário histórico sobre o Português do Brasil, o primeiro deste tipo, implica na análise minuciosa de documentos e textos originais de testemunhas vivas e oculares da realidade brasileira em seus estágios primeiros. O esmiuçamento de um número grande e inexplorado da produção escrita brasileira e sobre o Brasil a fim de escrutinar seu vocabulário, constitui um grande e árduo trabalho, o que requer um grande número de pesquisadores envolvidos. Além disso, as peculiaridades da formação dos diversos núcleos culturais e civilizatórios brasileiros em função das idiossincrasias históricas, lingüísticas e culturais das várias regiões do Brasil, de sua enorme biodiversidade ambiental e da multiplicidade de caminhos e de processos que atuaram na formação da sociedade brasileira, implicam em muitas dificuldades. Portanto, é necessário reunir forças e competências, organizando equipes representativas das múltiplas unidades do mosaico cultural brasileiro. Daí a idéia de reunir um grupo de pesquisadores representativos das várias regiões do Brasil para um trabalho conjunto sobre a formação histórica do vocabulário brasileiro. Por conseguinte, com este projeto, estamos criando uma rede integrada de pesquisadores de várias regiões do país em torno de um tema para o que trocaremos experiências assim como poderemos transferir competências de uns para outros. O Brasil não conta com nenhuma obra lexicográfica sobre seu vocabulário nos primeiros tempos da formação do Português Brasileiro. Assim, essa seria uma obra pioneira e necessária.
Membro: Sandra Maria Aluísio.
4.   2005-2005. DTI - Suporte à Recuperação por Conteúdo de Imagens de Exames Médicos em um Sistema de Informação Hospitalar
Edital CNPq 14/2004 - Projetos de Desenvolvimento Tecnológico e de Inovação. Recursos: 2 Bolsas DTI-7F e uma Bolsa EV.
Membro: Caetano Traina Junior.
5.   2005-2005. Edital Universal - Suporte a busca por similaridade em grandes bases de dados de imagens
Edital CNPq 19/2004 - Universal No. 471782/2004-1 Suporte a busca por similaridade em grandes bases de dados de imagens
Membro: Caetano Traina Junior.
6.   2005-2005. FragDW - Fragmentação dos Dados em Ambientes de Data Warehousing - Parte II
Este projeto visa dar continuidade à pesquisa de doutorado da proponente, por meio do extensão dos algoritmos de fragmentação horizontal já desenvolvidos e da proposta de algoritmos para a fragmentação vertical dos dados do data warehouse. O projeto também objetiva implementar os algoritmos propostos e contextualizá-los a uma aplicação de data warehousing real voltada à análise de diagnósticos de saúde pública, além de analisar o desempenho dos algoritmos de fragmentação horizontal e vertical propostos.
Membro: Cristina Dutra de Aguiar.
7.   2005-2005. Léxico-PB: Léxico Computacional de Português Brasileiro para Processamento de Língua Natural
CNPq (Fomento Tecnológico) #507004/2004-3: Léxico-PB: Léxico Computacional de Português Brasileiro para Processamento de Língua Natural. Descrição: O objetivo principal desse projeto é a construção de um léxico computacional de português brasileiro que maximize os seguintes critérios: (a) abrangência quanto ao número de entradas, cobrindo o português não-técnico, incluindo as variantes culta e vulgar; (b) cobertura quanto ao tipo dos atributos associados às entradas, sejam fonológicos, morfológicos, morfossintáticos e semânticos; (c) correção das informações nele contidas; (d) espectro de aplicação, ou seja, a utilidade que o léxico possa ter para aplicações diversas de PLN
Membro: Thiago Alexandre Salgueiro Pardo.
8.   2005-2005. Min Tex: descoberta de conhecimento em dados não estruturados usando mineração de textos
O foco principal deste projeto é a identificação de uma metodologia validada e confiável para manipular documentos textuais a partir da análise de seus conteúdos; possibilitando identificar tendências e categorias em uma grande massa de documentos com a intervenção mínima de um especialista de domínio na convergência do método - que poderá ser uma combinação integrada de vários métodos. Essa dificuldade de atingir consenso metodológico considerando a grande quantidade de informação disponível, nem sempre de qualidade e de real interesse, cria a demanda por ferramentas, quer automatizadas quer semi-automatizadas, que analisem os textos originais, de modo a filtrar o que é de fato útil. Com base nesses problemas, e também em soluções hoje mundialmente utilizadas, o objetivo deste projeto de pesquisa é desenvolver ferramentas automáticas e semi-automáticas para manipular dados não estruturados com base em mineração de textos, que indiquem as tendências conceituais em meio à fonte de material textual de um domínio do conhecimento, de forma clara. Neste projeto, a publicação científica, que é uma fonte de informação não estruturada, é o principal foco de análise. Como resultado do trabalho, espera-se contribuir de forma efetiva para a área de mineração de textos, tanto com relação aos resultados de pesquisa quanto com a formação de alunos. Os resultados de formação estão relacionados com a formação de alunos de Iniciação Científica e de bolsistas DTI, nos temas relacionados à extração de conhecimento de textos. Os resultados de pesquisa estão relacionados ao processo de mineração de texto. A proposta deste projeto, apesar da motivação inicial considerar textos relacionados com publicações científicas, trata também de solucionar alguns problemas que são comuns à recuperação e mineração de textos em geral. Edital CNPq 014/2004 - Fomento tecnologico Processo 507064-6
Membro: Solange Oliveira Rezende.
O foco principal deste projeto é a identificação de uma metodologia validada e confiável para manipular documentos textuais a partir da análise de seus conteúdos; possibilitando identificar tendências e categorias em uma grande massa de documentos com a intervenção mínima de um especialista de domínio na convergência do método - que poderá ser uma combinação integrada de vários métodos. Essa dificuldade de atingir consenso metodológico considerando a grande quantidade de informação disponível, nem sempre de qualidade e de real interesse, cria a demanda por ferramentas, quer automatizadas quer semi-automatizadas, que analisem os textos originais, de modo a filtrar o que é de fato útil. Com base nesses problemas, e também em soluções hoje mundialmente utilizadas, o objetivo deste projeto de pesquisa é desenvolver ferramentas automáticas e semi-automáticas para manipular dados não estruturados com base em mineração de textos, que indiquem as tendências conceituais em meio à fonte de material textual de um domínio do conhecimento, de forma clara. Neste projeto, a publicação científica, que é uma fonte de informação não estruturada, é o principal foco de análise. No caso de publicações científicas relacionadas com bioinformática, um dos objetivos é a investigação e desenvolvimento de novos métodos para a descoberta de relações entre genes baseada na literatura sobre genes. Para isso será necessário: Investigar métodos que aprimorem e complementem resultados obtidos por métodos de agrupamento de genes, como métodos de seleção de atributos e aprendizado não supervisionado; Identificar textos sobre um determinado gene, independente de seu nome, usando aprendizado de máquina; Tratar informações conflitantes extraídas de textos da literatura.
Membro: Alneu de Andrade Lopes.
9.   2005-2005. MineVisD: Plataforma Extensível para Mineração Visual de Dados: Desenvolvimento e Aplicações
Visualização de Informação e Mineração Visual de Dados tratam do uso de metáforas visuais para apoiar as pessoas em tarefas de análise e exploração de dados. Modelos gráficos e estratégias de interação podem apoiar a exploração dinâmica de dados de natureza abstrata, que não possuem necessariamente uma representação espacial inerente. O incessante aumento no tamanho dos volumes de dados coletados/simulados, bem como a sua crescente complexidade, introduzem grandes desafios para os processos de análise e de extração de conhecimento a partir desses dados. Técnicas de Visualização Multidimensional podem apoiar a representação dos vários estágios de um processo de extração de conhecimento, inclusive na etapa de mineração. A evolução e barateamento dos recursos gráficos e o amadurecimento da Visualização de Informação, permitem repensar os algoritmos de mineração, que podem agora incorporar representações visuais interativas que transmitam significado aos usuários nas diversas etapas de sua execução. A grande vantagem é a inserção do ser humano nesse processo. Representações visuais interativas podem, dessa forma, contribuir para a execução de processos de extração de conhecimento (a partir de dados) mais acessíveis e interpretáveis (pelos seus usuários 'finais'), com conseqüentes ganhos de efetividade. Esse projeto dá continuidade à atuação desta pesquisadora nessa linha, focalizando em alguns problemas específicos associados a técnicas de visualização e ao seu uso. (Edital CNPq Universal 019/2004, Processo CNPq
Membro: Maria Cristina Ferreira de Oliveira.
10.   2005-2005. Padrões rítmicos, Fixação de parâmetros e Mudança lingüística, Fase II
Projeto Temático: Padrões rítmicos, Fixação de parâmetros e Mudança lingüística, Fase II (proc. nro 04/03643-0) Objetivos Este projeto situa-se na continuação do projeto homônimo, processo 1998/03382-0, cujo balanço final segue na Seção Resultados de Auxílios anteriores. O primeiro objetivo do presente projeto é a extensão e consolidação do Corpus Tycho Brahe (doravante CTB), , elaborado na fase anterior, tanto no que diz respeito aos textos que o compõem quanto à sua anotação morfológica e sintática. O segundo objetivo é usar o CTB para estudar a história do português a partir das seguintes questões: - Quais são as características da gramática intermediária entre a do português arcaico e do português europeu moderno? - Qual é a trajetória no tempo dessa gramática? - Como se dá a emergência do português europeu moderno? De uma maneira mais geral, este projeto se insere em duas grandes problemáticas da teoria da linguagem: - O que provoca a mudança lingüística? - Como essa mudança se dá ao longo do tempo? Enfim, o projeto enfrenta a questão metodológica da detecção da mudança nos textos escritos. Para isso pretende articular análise qualitativa - no âmbito da teoria da gramática gerativa - e análise quantitativa, lançando mão da estatística descritiva e da modelagem estocástica.
Membro: Sandra Maria Aluísio.
11.   2005-2005. PLN-BR - Recursos e Ferramentas para a Recuperação de Informação em Bases Textuais em Português do Brasil
O presente projeto, submetido ao CNPq no âmbito do edital CTInfo/MCT/CNPq nº 011/2005, e aprovado para o biênio 2006/2007, tem por objetivo geral a construção de um espaço interinstitucional de interação e intercâmbio de práticas de análise e investigação lingüístico-computacional acerca da representação e da recuperação de informação de natureza semântica e pragmático-discursiva veiculada por enunciados produzidos em português brasileiro. Subdividido em 7 subprojetos relativamente autônomos (veja quadro à direita), mas que compartilham o mesmo ponto de partida - qual seja, o tratamento da informação mobilizada em um mesmo corpus do português do Brasil - o projeto vincula pesquisadores vinculados à Universidade de São Paulo (USP), campus de São Carlos; à Universidade Federal de São Carlos (UFSCar); à Universidade Estadual Paulista (UNESP), campus de Araraquara; à Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS); à Pontifícia Universidade Católica do Rio de Janeiro (PUCRJ); à Universidade do Vale do Rio dos Sinos (UNISINOS); e à Universidade Presbiteriana Mackenzie.
Membro: Sandra Maria Aluísio.
12.   2005-2005. Sistema de Visão para Futebol de Robôs
Este projeto visa utilizar técnicas de detecção de movimento e aplicá-las no controle de um time de futebol de robôs.
Membro: Roseli Aparecida Francelin Romero.
13.   2005-2005. Sistema Nebuloso para Navegação Autônoma de Robôs
Um sistema neuro-fuzzy está sendo desenvolvido para controlar de forma autônoma um robô durante a sua navegação por um determinado ambiente. Este sistema é constituído por dois módulos inatos que controla dois objetivos diferentes: desvio de obstáculo e busca ao alvo. Para controlar esses dois módulos inatos estamos utilizando um módulo de Controle, que na verdade é constituído de três redes neuro-fuzzy, que são treinadas à medida que o robô vai interagindo com o ambiente e a sua função é balancear de forma autônoma, os dois módulos inatos. Isto é, o módulo de Controle atua como uma função do tipo multi-objetivo. Os comportamentos inatos são implementados por um conjunto de regras nebulosas. Os pesos das redes neuro-fuzzy são adaptadas com uma regra de aprendizado baseada em aprendizado por reforço. O sistema tal como está, considera algumas restrições no ambiente, tais como, os obstáculos e a meta são fixos no ambiente.
Membro: Roseli Aparecida Francelin Romero.
14.   2005-2005. Social@MS: Um portal de indicadores socioeconômicos e de desenvolvimento sustentável de MS
O objetivo geral da pesquisa é propor modelos e técnicas de Engenharia Web para especificar e implementar um portal social inovador, público e aberto na Web à comunidade - intitulado SOCIAL@MS - que socializa indicadores socioeconômicos e informações correlacionadas, objetivando construir coletivamente uma base de conhecimento sobre a realidade e o processo de transformação da gestão de políticas públicas em processos de desenvolvimento social sustentável. O portal reunirá um conjunto de variáveis e indicadores sobre a realidade social brasileira, abrangendo informações sobre saúde, educação, trabalho e rendimento, domicílios, famílias, grupos populacionais específicos e trabalho de crianças e adolescentes, entre outros aspectos, acompanhados de breves comentários sobre as características observadas nos diferentes estratos geográficos e populacionais do país relativamente a esses temas.
Membro: Alneu de Andrade Lopes.
15.   2005-2005. Software de Alto Desempenho para Aplicações em Educação Baseada em Realidade Virtual
Este projeto tem por objetivo modelar, desenvolver e integrar um software para aplicação em treinamento médico realista e simulado baseado em realidade virtual (RV). As rotinas envolvem visualização 3D, interação háptica (força + tato), deformação de modelos e avaliação online. Tais rotinas deverão ser desenvolvidas sob plataforma livre (Linux) com ferramentas de domínio público visando a redução dos custos de aplicações desta natureza, permitindo difundir tecnologia. Como produtos serão gerados: a) um conjunto de bibliotecas para a aplicação da tecnologia a outros procedimentos em educação que demandem realismo devido ao seu caráter crítico; b) sistema de treinamento em coleta de medula óssea usando as bibliotecas desenvolvidas. O Projeto está sob responsabilidade de pesquisadores da UFPB, sob a coordenação da Profa. Liliane dos Santos Machado, em parceria com pesquisadores do ICMC-USP. A Coordenadora local da equipe do ICMC é a Profa. Rosane Minghim, o coordenador geral é o Prof. Ronei Marcos de Moraes. (Número do Convênio FINEP 01.04.1054.00 / Ref. 1898/04)
Membro: Maria Cristina Ferreira de Oliveira.
16.   2005-2005. TIDIA Kyatera
O Projeto KyaTera apoiado no Programa Tecnologia de Informação no Desenvolvimento da Internet Avançada (TIDIA) visa estabelecer uma rede de fibras ópticas interligando laboratórios para pesquisa, desenvolvimento e demonstração de tecnologias da internet. Objetivos do projeto 1- Promover um avanço significativo, tanto em quantidade como em qualidade, nas pesquisas cooperativas em todas as áreas, desenvolvendo o sistema de pesquisa e inovação no Estado de São Paulo 2- Estabelecer uma rede de fibras ópticas interligando laboratórios para estudo, pesquisa, desenvolvimento e demonstração de tecnologias e aplicações da Internet Avançada, permitindo que laboratórios geograficamente distribuídos testem novas tecnologias 3- Implantação de redes estável ligada à Internet Acadêmica Mundial, com alta qualidade de serviço, e sem limite de largura de banda para pesquisa e ensino no Estado de São Paulo Processo Fapesp: 2003/08269-7 Período: 01/02/2005 a 31/01/2007 Área de concentração: 03040000 Recursos: - diárias: 159.000,00 - reserva técnica nacional: 77.105,00 - reserva técnica importação: 42.113,55 (não é nossa, é da Fapesp) - Material permanente país: 106.420,00 - material consumo país: 43.000,00 - material permanente importado: US$ 56.151,40 (chaves gigabit)
Membro: Dilvan de Abreu Moreira.

2004

1.   2004-2004. Auxílio à Pesquisa Individual - Fapesp proc. 2004/02411-9 - Estudos para a Proposta, Implementação e Avaliação de Desempenho de Novas Técnicas, Visando a Construção de um Middleware para a Execução de Aplicações Paralelas e Distribuídas de Alto Desempenho
Durante as décadas de 1980 e 1990 diversos pesquisadores começaram a adotar conceitos de sistemas distribuídos para desenvolver aplicações de alto desempenho. Esses conceitos direcionaram diversos estudos sobre: balanceamento de carga, imagem única do sistema (single system image), protocolos de baixa latência, bibliotecas de comunicação e arquiteturas de hardware de alto desempenho. Apesar do desenvolvimento contínuo, os resultados desses estudos ainda apresentam limitações para diversos setores que necessitam de aplicações de alto desempenho. Essas limitações são impostas pela necessidade de conhecimento específico sobre a análise, projeto e implementação de tais tipos de aplicações. O conhecimento específico necessário para a construção de aplicações paralelas e distribuídas reside em tópicos tais como, modularização de aplicações em processos, análise da capacidade de processamento e comunicação dos computadores do ambiente distribuído, análise de ocupação e comunicação desses processos, e alocação de recursos do ambiente distribuído. Observando as limitações anteriormente apresentadas, este projeto tem por objetivo estudar, propor, implementar e avaliar o desempenho de novas técnicas de análise de ocupação, distribuição e comunicação de tarefas, que devem resultar em um middleware para a execução de aplicações paralelas e distribuídas de alto desempenho. Esse \textit{middleware}, denominado MidHPC (Middleware for High Performance Computing) tem por objetivo permitir a execução de aplicações multitarefa sobre um ambiente distribuído composto por computadores de capacidade heterogênea. Para utilizar o MidHPC, projetistas de software podem criar aplicações com paradigma concorrente, amplamente difundido. Essas aplicações são submetidas ao MidHPC, que se encarrega de detectar as tarefas contidas em cada processo, analisar a ocupação de recursos impostas por tais tarefas e realizar uma distribuição homogênea de carga.
Membro: Rodrigo Fernandes de Mello.
2.   2004-2004. BioInf BDB: Bioinformática e Banco de Dados Biológicos
O seqüenciamento e a investigação do genoma humano e do genoma de outros organismos têm gerado um elevado volume de informações, que são sistematicamente armazenadas em bancos de dados biológicos. Este projeto tem por objetivo investigar os problemas de armazenamento, processamento e recuperação de dados biológicos usados em projetos genoma.
Membro: Cristina Dutra de Aguiar.
3.   2004-2004. COMET - CorTec: Coleta, organização e disponibilização online dos Corpora Técnicos do Corpus Multilingüe para Ensino e Tradução
O projeto CorTec visa padronizar parte dos córpus do COMET segundo critérios descritos em Atkins et al (1992) e disponibilizá-los online, acompanhados de ferramentas de busca e análise lingüística, para servirem de fonte de pesquisa para estudiosos da tradução, tradutores profissionais, professores e aprendizes de tradução, de inglês para fins específicos e lingüistas em geral.
Membro: Sandra Maria Aluísio.
4.   2004-2004. Consultas por Similaridade em um Sistema de Arquivamento de Imagens Médicas: Indexação, Recuperação e Visualização das Informações através de seu Conteúdo
Quando é necessário manipular informações complexas e volumosas, como são as imagens de exames médicos, um dos problemas a serem tratados é o de como armazenar e recuperar tais informações de maneira rápida e precisa. Uma técnica usual é a extração de características (parâmetros) da imagem, que idealmente possibilitem a identificação da mesma de forma inequívoca, ou com a menor ambiguidade possível. Muitas vezes esse processo é baseado na redução da dimensionalidade dos dados: parâmetros são extraídos das imagens e a seguir utilizados para indexá-las agilizando sua busca e recuperação. As estruturas de indexação são ferramentas fundamentais nos sistemas de gerenciamento de bancos de dados, pois habilitam os sistemas gerenciadores de dados a armazenar e recuperar eficientemente os dados de interesse dentre um grande volume de dados. Este projeto propõe construir um Subsistema de Recuperação de Imagens Baseada em Conteúdo (SiRIC), utilizando duas grandes frentes de atuação. Esse subsistema servirá como base para um sistema de armazenagem e recuperação de imagens médicas que será utilizado no núcleo de um protótipo de um sistema PACS, chamado cb-PACS. A primeira frente de atuação corresponde à construção do módulo de indexação de imagens, o qual utilizará uma estrutura de indexação métrica adequada. Para isso iremos utilizar a Slim-tree, devido às suas características de ser dinâmica e possibilitar a otimização de acessos a disco necessários para responder consultas por similaridade. Um tratamento adicional, para minimizar também o cálculo de distâncias na Slim-tree, deverá ser realizado no escopo do projeto proposto. A segunda grande frente de atuação refere-se ao desenvolvimento do módulo de extração de características (parâmetros) das imagens a serem indexadas.
Membro: Elaine Parros Machado de Sousa.
Quando é necessário manipular informações complexas e volumosas, como são as imagens de exames médicos, um dos problemas a serem tratados é o de como armazenar e recuperar tais informações de maneira rápida e precisa. Uma técnica usual é a extração de características (parâmetros) da imagem, que idealmente possibilitem a identificação da mesma de forma inequívoca, ou com a menor ambiguidade possível. Muitas vezes esse processo é baseado na redução da dimensionalidade dos dados: parâmetros são extraídos das imagens e a seguir utilizados para indexá-las agilizando sua busca e recuperação. As estruturas de indexação são ferramentas fundamentais nos sistemas de gerenciamento de bancos de dados, pois habilitam os sistemas gerenciadores de dados a armazenar e recuperar eficientemente os dados de interesse dentre um grande volume de dados. Este projeto propõe construir um Subsistema de Recuperação de Imagens Baseada em Conteúdo (SiRIC), utilizando duas grandes frentes de atuação. Esse subsistema servirá como base para um sistema de armazenagem e recuperação de imagens médicas que será utilizado no núcleo de um protótipo de um sistema PACS, chamado cb-PACS. A primeira frente de atuação corresponde à construção do módulo de indexação de imagens, o qual utilizará uma estrutura de indexação métrica adequada. Para isso iremos utilizar a Slim-tree, devido às suas características de ser dinâmica e possibilitar a otimização de acessos a disco necessários para responder consultas por similaridade. Um tratamento adicional, para minimizar também o cálculo de distâncias na Slim-tree, deverá ser realizado no escopo do projeto proposto. A segunda grande frente de atuação refere-se ao desenvolvimento do módulo de extração de características (parâmetros) das imagens a serem indexadas.
Membro: Agma Juci Machado Traina.
5.   2004-2004. Desenvolvimento de um Sistema de Detecção de Peças Defeituosas
É muito comum que em empresas de manufatura de peças mecânicas o processo de controle de qualidade da produção seja feito manualmente. Uma empresa fabricante de compressores mecânicos utiliza trabalho manual para identificação de peças riscadas na linha de produção. Tais peças não podem ser utilizadas no produto final, pois comprometeriam o funcionamento do mesmo. Para a realização desta tarefa, funcionários treinados analisam as peças uma a uma, classificando-as em boas ou ruins, o que é um processo lento e exaustivo. Trabalhando em turno de 8 horas, revisam peça por peça, de modo repetitivo, o que exige certo conhecimento. Isto acarreta dependência de um funcionário apto para realizar tal tarefa. Caso este seja demitido ou removido para outro setor, um substituto terá que ser treinado para realizar a tarefa, o que pode levar a um atraso na produção. Desta forma, o presente projeto envolverá o desenvolvimento de um sistema computacional que classificará, de forma automática, as peças segundo sua qualidade, utilizando visão computacional, através do uso de filtros de detecção de bordas e subtração de imagens. Uma das questões importantes em análise de dados e reconhecimento de padrões é o pré-processamento de um conjunto de dados de forma que este se torne mais adequado para o processamento computacional. Para isso, deve-se especificar um método através do qual os dados sejam descritos de maneira que as suas características mais importantes sejam ressaltadas [Oliveira, 2002]. Este estudo deverá colaborar para o desenvolvimento de um software que, em primeiro momento, classificará uma peça específica dada sua imagem digital como defeituosa ou não, podendo ser estendida a outros tipos de peças. O sucesso no desenvolvimento deste projeto seria de grande valia para empresas do ramo, uma vez que reduziria custos e aumentaria a produtividade. Nas próximas seções serão detalhados os processos envolvidos na digitalização, pré-processamento e análise das imagens.
Membro: Roseli Aparecida Francelin Romero.
6.   2004-2004. Estudo e Implementação de Novos Algoritmos de Inserção e Extração de Regras Simbólicas em Arquiteturas Conexionistas Biologicamente Plausíveis
Estudo e implementação de novos algoritmos de inserção e extração de regras simbólicas em arquiteturas conexionistas biologicamente plausíveis. Vários algoritmos serão estudados. O objetivo é mostrar que há algoritmos biologicamente plausíveis mais eficientes computacionalmente que os tradicionais. Este projeto é uma continuação do projeto anterior (Implementação de Sistemas Híbridos Simbólico-Conexionistas Biologicamente Plausíveis para o Processamento de Línguas Naturais).
Membro: João Luís Garcia Rosa.
7.   2004-2004. FAPESP (Auxílio Visitante Exterior 2003/12853-6) Pesquisa com Ethan Munson: Professor Visitante UWM
Dr. Ethan Munson´s Research relative to his collaboration with Dr. Maria da Graça Pimentel and Dr. Renata Fortes, during his visit to the Computer Science and Statistics Department from the University of São Paulo, from March to August 2004, involved hree research themes: 1)Using Latent Semantic Indexing to Maintain Links Among Evolving Software Documents 2)Information Visualization Style Sheets 3)Design and evaluation of hypermedia representations for capturing design rationale
Membro: Maria da Graca Campos Pimentel.
8.   2004-2004. FAPESP TIDIA-Ae (fase 1) Aprendizado Eletronico sobre Plataforma de Redes de Alta Velocidade
Os principais objetivos do Projeto de Aprendizagem Eletrônica (TIDIA-Ae) são a pesquisa e o desenvolvimento na área de tecnologia da informação voltada para especificação, projeto e implementação de ferramentas aplicáveis à área de Educação a Distância (EaD). A idéia é desenvolver soluções flexíveis de grande impacto social, porém a um baixo custo, devido à utilização de plataformas livres no seu desenvolvimento. O TIDIA-Ae também prevê o desenvolvimento de um ambiente de aprendizagem eletrônica (Ae), que servirá como base para a criação de novas ferramentas de EaD. O desenvolvimento desse ambiente deverá ser fundamentado em uma arquitetura baseada em componentes, facilitando, assim, sua elaboração, implementação, manutenção e principalmente, sua evolução, permitindo que novas funcionalidades sejam acrescidas ao longo do tempo. A principal aplicação do projeto TIDIA-Ae é dar suporte à EaD via software livre, tanto em termos teóricos-metodológicos quanto tecnológicos. Para ser executado, o projeto envolverá técnicas de Engenharia de Software para análise, projeto, implementação e teste dos componentes, bem como teorias das áreas de Educação a Distância, Interfaces Humano-Computador, Inteligência Artificial, além das tecnologias empregadas para o desenvolvimento de sistemas Hipermídia e outras que sejam necessárias para a conclusão dos objetivos iniciais previstos.
Membro: Maria da Graca Campos Pimentel.
9.   2004-2004. FAPESP TIDIA-Aprendizado Eletronico sobre Plataforma de Redes de Alta Velocidade
Os principais objetivos do Projeto de Aprendizagem Eletrônica (TIDIA-Ae) são a pesquisa e o desenvolvimento na área de tecnologia da informação voltada para especificação, projeto e implementação de ferramentas aplicáveis à área de Educação a Distância (EaD). A idéia é desenvolver soluções flexíveis de grande impacto social, porém a um baixo custo, devido à utilização de plataformas livres no seu desenvolvimento. O TIDIA-Ae também prevê o desenvolvimento de um ambiente de aprendizagem eletrônica (Ae), que servirá como base para a criação de novas ferramentas de EaD. O desenvolvimento desse ambiente deverá ser fundamentado em uma arquitetura baseada em componentes, facilitando, assim, sua elaboração, implementação, manutenção e principalmente, sua evolução, permitindo que novas funcionalidades sejam acrescidas ao longo do tempo. A principal aplicação do projeto TIDIA-Ae é dar suporte à EaD via software livre, tanto em termos teóricos-metodológicos quanto tecnológicos. Para ser executado, o projeto envolverá técnicas de Engenharia de Software para análise, projeto, implementação e teste dos componentes, bem como teorias das áreas de Educação a Distância, Interfaces Humano-Computador, Inteligência Artificial, além das tecnologias empregadas para o desenvolvimento de sistemas Hipermídia e outras que sejam necessárias para a conclusão dos objetivos iniciais previstos.
Membro: Renata Pontin de Mattos Fortes.
10.   2004-2004. IC - Desenvolvimento e Integração de Recursos de Visualização de informações em uma Ferramenta de Descoberta de Conhecimento em Bases de Dados
Edital CNPq 05/2004 / Iniciação Científica a Projetos de Pesquisa Científica e Tecnológica - Projeto No. 501215/2004-2 Desenvolvimento e Integração de Recursos de Visualização de informações em uma Ferramenta de Descoberta de Conhecimento em Bases de Dados
Membro: Caetano Traina Junior.
11.   2004-2004. InfoVis 2 - A Repository of Visual Mining & Information Visualization and Sonification Techniques
Visual support for data interpretation is a very promising research areas in computing due to the large demand generated by the dimensionality and volume of data sets and the current maturity stage of the subject of graphical mappings to help data interpretation. Building on previous results of a first InfoVis Project and also of the post-doctorate work of the two main researchers of this project, this research plan proposes to develop a repository of data visualization, sonification and visual mining techniques that will make available a number of techniques aimed at supporting the analysis of complex data. These techniques will be created as a result of extensions and concept application of results obtained in recent research of the team members. Also planned are the adaptation of such repository to a Peer-to-Peer Web Services architecture and the adaptation for use and test of the techniques developed and extended in various areas of applications. (Processo FAPESP 2004/09888-5)
Membro: Maria Cristina Ferreira de Oliveira.
12.   2004-2004. InfoVis+ - Visualização para apoio à Extração de Informação de Grandes Volumes de Dados
A explosão dos volumes de dados representa hoje um enorme desafio para quem precisa extrair conhecimento dessas informações. A tendência atual é, cada vez mais, a de apoiar o processo de análise e interpretação por meio de representações gráficas interativas, adotando metáforas visuais que permitam a um usuário formular consultas e analisar resultados dinamicamente. Esse tema é objeto de estudo de áreas como Visualização de Informação (também conhecida como Visualização Exploratória, ou Multidimensional) e Mineração Visual de Dados. Neste projeto, damos continuidade à pesquisa iniciada em Visualização de Informação e Mineração Visual de Dados durante estágio de pós-doutoramento realizado na UMass, Lowell, USA, em 2001. Em particular, nossas metas genéricas são: (i) investigar estratégias para ampliar a usabilidade de técnicas de visualização multidimensional, de forma que estas venham a apoiar efetivamente a visualização de dados caracterizados pela heterogeneidade, grande volume e alta dimensionalidade; e (ii) investigar mecanismos para a integração de estratégias de mineração de dados - tradicionalmente usadas em processos de descoberta de conhecimento em dados - e de visualização, de maneira a aumentar a usabilidade dos processos de descoberta de informação em dados. No âmbito dos projetos de iniciação propostos, pretende-se estudar modelos e mecanismos para a coordenação entre múltiplas visualizações simultâneas; investigar a aplicação de técnicas de visualização científica em domínios tradicionalmente tratados com técnicas de visualização de informação; e estudar como mecanismos de análise visual podem ser integrados em processos convencionais de análise de dados no domínio de Engenharia de Software Experimental. (Processo CNPq 502324/2004-0 - Cota IC)
Membro: Maria Cristina Ferreira de Oliveira.
13.   2004-2004. Infovis2: A repository of visual mining and information visualization and sonification techniques
O uso de mapeamento visual para apoio à interpretação de dados é uma área muito promissora de pesquisa em ciência da computação devido à grande demanda gerada pela dimensionalidade, variedade, complexidade e volume dos conjuntos de dados além do atual estágio de maturidade da área de mapeamentos gráficos para representar informação. Tendo por base resultados anteriores do primeiro projeto InfoVis do grupo de pesquisa (finalizado em 2003) e também do pós-doutorado de pesquisadores deste projeto, o plano de pesquisa aqui apresentado propõe desenvolver um repositório de técnicas de visualização de informação, sonificação e mineração visual que deverá estar disponível na Internet para uso geral na estrutura de Peer-to-peer Web Services. Tais técnicas serão extensões de técnicas ou aplicações de conceitos resultantes dos trabalhos anteriores além de técnicas novas tratando problemas associados à alta dimensionalidade e à escala dos conjuntos de dados existentes.
Membro: Alneu de Andrade Lopes.
14.   2004-2004. SAFE - Software Available for Everyone - Engenharia de Software Disponível para Todos
O objetivo do projeto é desenvolver uma infra-estrutura que permita a integração de ferramentas de software livre de apoio às atividades de Engenharia de Software, possibilitarndo um suporte automatizado para o processo de software livre, que seja simples o suficiente para atrair a colaboração e a participação de desenvolvedores (nos diversos níveis de familiaridade com o processo OSS). Visualiza-se um CASE integrando ferramentas OSS de suporte às atividades de projeto, como por exemplo, que coordene as tarefas em grupo, e que capture decisões de projeto ocorridas. O primeiro suporte a ser desenvolvido é uma ferramenta que agregue e integre o acesso às ferramentas mais utilizadas em processos maduros de projetos OSS, como é o caso do Mozilla. Recursos: R$ 113000,00
Membro: Dilvan de Abreu Moreira.
15.   2004-2004. SAFE - Software Engineering Available For Everyone
O objetivo do projeto é desenvolver uma infra-estrutura que permita a integração de ferramentas de software livre de apoio às atividades de Engenharia de Software, possibilitarndo um suporte automatizado para o processo de software livre, que seja simples o suficiente para atrair a colaboração e a participação de desenvolvedores (nos diversos níveis de familiaridade com o processo Open Source Software-OSS). Visualiza-se um CASE integrando ferramentas OSS de suporte às atividades de projeto, como por exemplo, que coordene as tarefas em grupo, e que capture decisões de projeto ocorridas. O primeiro suporte a ser desenvolvido é uma ferramenta que agregue e integre o acesso às ferramentas mais utilizadas em processos maduros de projetos OSS, como é o caso do Mozilla.
Membro: Renata Pontin de Mattos Fortes.
16.   2004-2004. TIDIA-Ae - Aprendizagem Eletrônica
O Projeto TIDIA-Ae (FAPESP proc. 03/08193) Os principais objetivos do Projeto de Aprendizagem Eletrônica (TIDIA-Ae) são a pesquisa e o desenvolvimento na área de tecnologia da informação voltada para especificação, projeto e implementação de ferramentas aplicáveis à área de Educação a Distância (EaD). A idéia é desenvolver soluções flexíveis de grande impacto social, porém a um baixo custo, devido à utilização de plataformas livres no seu desenvolvimento. O TIDIA-Ae também prevê o desenvolvimento de um ambiente de aprendizagem eletrônica (Ae), que servirá como base para a criação de novas ferramentas de EaD. O desenvolvimento desse ambiente deverá ser fundamentado em uma arquitetura baseada em componentes, facilitando, assim, sua elaboração, implementação, manutenção e principalmente, sua evolução, permitindo que novas funcionalidades sejam acrescidas ao longo do tempo. O ambiente Ae fornecerá uma estrutura mínima a fim de que pesquisadores possam gerenciar e testar novas ferramentas em desenvolvimento, que serão futuramente acopladas ao projeto. Por servir como ponto de partida para outras aplicações de EaD, também fornecendo bibliotecas básicas de componentes de software, esse ambiente permitirá uma significativa economia de tempo e de esforços por parte dos pesquisadores da área. A principal aplicação do projeto TIDIA-Ae é dar suporte à EaD via software livre, tanto em termos teórico-metodológicos quanto tecnológicos. Para ser executado, o projeto envolverá técnicas de Engenharia de Software para a análise, projeto, implementação e teste dos componentes, bem como teorias das áreas de Educação a Distância, Interfaces Humano-Computador, Inteligência Artificial e outras que sejam necessárias para a conclusão dos objetivos iniciais previstos. Recursos: R$ 250000,00
Membro: Dilvan de Abreu Moreira.

2003

1.   2003-2003. Algoritmos para Reconstrução Tomográfica: otimização, reconstrução, quantificação e aplicação clínica
A Reconstrução Tomográfica revolucionou a Medicina, permitindo a visualização anatômica, metabólica e funcional de estruturas humanas de modo não-invasivo. Nestes últimos 30 anos, têm havido progressos notáveis na reconstrução tomográfica a partir de projeções, tanto no que se refere à qualidade e velocidade, quanto em estudos dinâmicos e tridimensionais [Udupa, 2000]. Contudo, ainda há várias questões em aberto nesta área, principalmente em relação à tomografia por emissão, modalidade esta muito utilizada em Medicina Nuclear. São desafios importantes, tais como: a) assegurar resultados verdadeiramente quantitativos ao SPECT - Single Photon Emission Computed Tomography e ao PET- Positron Emission Tomography (remoção de artefatos causados pela atenuação, espalhamento e ruído); b) algoritmos de reconstrução verdadeiramente 4D para estruturas dinâmicas; c) segmentação e quantificação tridimensional robustas; e d) avaliações objetivas dos métodos tomográficos. A tomografia por emissão (SPECT e PET) é uma modalidade de imagens médicas importantíssima porque permite, através do uso de radiofármacos, a obtenção de informações funcionais e metabólicas. Essas informações, muitas vezes, indicam mudanças em processos biológicos que podem levar a identificação de doenças, antes mesmo que modificações anatômicas possam ser detectadas em imagens radiológicas ou por ressonância magnética nuclear. São encontradas ainda situações em que não existem sintomas manifestos e as imagens por emissão já mostram funções alteradas. O projeto aqui apresentado tem, como objetivo principal, unir esforços e conhecimentos de várias equipes com longa experiência em Tomografia, visando soluções práticas e otimizadas de algoritmos de reconstrução, de restauração de imagens, de quantificação de volumes reconstruídos e de aplicações clínicas.
Membro: Moacir Antonelli Ponti.
2.   2003-2003. FragDW: Fragmentação dos Dados em Ambientes de Data Warehousing - PARTE I
Este projeto enfoca o problema de distribuição dos dados em ambientes de data warehousing. Especificamente, o projeto visa a investigação da fragmentação dos dados do data warehouse. O presente projeto de pesquisa tem como objetivos: (i) dar continuidade à pesquisa de doutorado da coordenadora do projeto (Ciferri, 2002) (recém-doutora); (ii) propor algoritmos voltados à fragmentação vertical dos dados do data warehouse; (iii) implementar um subconjunto dos algoritmos de fragmentação horizontal e vertical dos dados do data warehouse; e (iv) aplicar os algoritmos de fragmentação horizontal e vertical dos dados do data warehouse
Membro: Cristina Dutra de Aguiar.
3.   2003-2003. HP Hewlett-Packard Project Applied Mobile Technology Solutions in Learning Environments
The original proposal includes the investigation of opportunities to exploiting mobile equipment such as tablet PCs and PDAs in learning environments, in particular in the context of capturing the live experiences in classrooms, laboratories and other educational settings towards automatically registering those experiences as documents in the Web. The original infrastructure is that of the InCA-SERVE Project, result of a formal collaboration between researchers from the Computer Science Departament of the Instituto de Ciências Matemáticas e de Computação da USP (ICMC/USP)in Brazil (funded by CNPq, and FAPESP) and the Georgia Institute of Technology in the U.S. (funded by NSF). We are indebt with Gregory Abowd, from Gatech, for his support and collaboration.
Membro: Maria da Graca Campos Pimentel.
4.   2003-2003. Implementação de Sistemas Híbridos Simbólico-conexionistas Biologicamente Plausíveis para o Processamento de Línguas Naturais
Estudo e implementação de um Sistema Híbrido Simbólico-Conexionista Biologicamente Plausível para o Processamento de Línguas Naturais (PLN). Através da inserção e extração de conhecimento lingüístico simbólico nas redes neurais artificiais será possível mostrar que os algoritmos e arquiteturas conexionistas biologicamente plausíveis são mais adequadas e mais eficientes computacionalmente que os sistemas conexionistas tradicionais.
Membro: João Luís Garcia Rosa.
5.   2003-2003. Projeto Extração automática de termos e elaboração colaborativa de terminologias para intercâmbio e difusão de conhecimento especializado
O uso de terminologias sistematizadas contribui para tornar mais eficaz a comunicação entre especialistas. Entretanto, para se empreender a tarefa de sistematizar terminologias, é fundamental que haja ferramentas computacionais compatíveis com esse tipo de empreendimento. A Terminologia e a Informática são duas áreas que estão integradas, há pelo menos quatro décadas, em países desenvolvidos, com o objetivo de gerar produtos terminológicos melhores e mais fiáveis. É fato que, no Brasil, tal realidade vai se dar muito tardiamente e, ainda assim, os poucos terminólogos brasileiros que desenvolvem produtos terminológicos operam na maioria das vezes com ferramentas adaptadas e não elaboradas especificamente para a finalidade das suas pesquisas. Nossa proposta, então, é a de satisfazer algumas exigências básicas da pesquisa terminológica por meio de uma ferramenta computacional baseada na Web, composta de módulos para extração automática de termos, elaboração colaborativa, intercâmbio e difusão do conhecimento terminológico disponível, para que áreas técnicas e de pesquisa emergentes e/ou de influência na economia brasileira possam ser privilegiadas com a criação de glossários e dicionários terminológicos.
Membro: Sandra Maria Aluísio.
6.   2003-2003. Protem-CC/NSF

Membro: José Fernando Rodrigues Júnior.
7.   2003-2003. VIMOS (Vídeo, Mobilidade e Segurança)
O rápido desenvolvimento de novas tecnologias para redes de alta banda, comunicação sem fio, técnicas de compressão, etc, tornou possível o desenvolvimento de sofisticadas infraestruturas de comunicação para suportar uma variedade de aplicações multimídia. Dentre essas podemos distinguir, por exemplo, a transmissão de áudio e vídeo em tempo real. Entretanto, um ambiente sem fio traz desafios adicionais a essas aplicações devido a taxas mais altas de erro em comparação a redes interligadas por fibra ótica, limitações de banda e mobilidade dos usuários. O objetivo deste projeto será estudar, conceber e avaliar o desempenho de um conjunto de mecanismos e protocolos capazes de lidar com esses aspectos para permitir a transmissão de vídeo com qualidade e segurança. Dentre os aspectos abordados neste projeto podemos citar protocolos e mecanismos de provisão de QoS e segurança em redes sem fio, caracterização do tráfego de vídeo, middleware para o gerenciamento da QoS nestas redes e aplicações de vídeo adaptativas
Membro: Marcelo Garcia Manzato.

2002

1.   2002-2002. Estudo e Implementação de Algoritmos e Arquiteturas Conexionistas Biologicamente Plausíveis
Este projeto propõe a aplicação de Redes Neurais Artificiais (RNA) no Processamento de Línguas Naturais (PLN), através de estudos de arquiteturas e algoritmos conexionistas biologicamente e psicolingüisticamente plausíveis.
Membro: João Luís Garcia Rosa.
2.   2002-2002. Gerenciamento de Atividades de Ensino via Internet usando Agentes de Software e Clusters de Computadores
Este projeto tem como objetivo a criação de um programa, usando o modelo de agentes de software, para o gerenciamento de atividades realizadas por grupos de pessoas através da Internet. Apesar desse programa dever ser o mais genérico possível, de forma que possa ser facilmente reutilizado no gerenciamento de atividades em domínios diversificados, sua primeira versão enfocará com mais cuidado o gerenciamento de atividades de Ensino via Internet. Ele poderá ser usado tanto como ferramenta de apoio para ensino presencial como a distância. Esse programa deverá ainda ser capaz de rodar em Clusters de computadores relativamente baratos baseados no sistema operacional Linux (Web Farms). Recursos: FAPESP R$ 21340,00 + R$ 3201,00 Proc.: 01/10203-9 USP ProReitoria de Pesquisa R$ 2134,00
Membro: Dilvan de Abreu Moreira.
3.   2002-2002. Implantação de Servidores Linux para compartilhamento de arquivos com redes Windows
Implantação de Servidores Linux com compartilhamento de arquivos com redes Windows para a empresa Rei Frango localizada em São Carlos.
Membro: Rodrigo Fernandes de Mello.
4.   2002-2002. Instituto Fábrica do Milênio (IFM I)
Os objetivos gerais do Instituto Fábrica do Milênio (IFM) podem ser entendidos como a proposição, o desenvolvimento e a disseminação de mecanismos para o aumento da competitividade e do conhecimento científico e tecnológico das empresas instaladas no país, através da formação de um cluster de pesquisas integradas, abordando os os temas que determinam hoje a competitividade de empresas de manufatura. O conjunto de instituições e projetos envolvidos formam uma massa crítica que os capacitam a desenvolver um espectro de pesquisas (que abrangem desde o desenvolvimento de tecnologias industriais básicas até elementos de gestão) que podem, se organizadas de forma integrada, contribuir efetivamente para o desenvolvimento das indústrias brasileiras. Descrição completa desse projeto encontra-se em: http://www.ifm.org.br
Membro: Solange Oliveira Rezende.
5.   2002-2002. Participação de Conselho e Administração da Empresa
Administração e Gerenciamento de Projetos
Membro: Rodrigo Fernandes de Mello.
6.   2002-2002. Projeto FAPESP PIPE 01/03074-8 - Sistema de edição e publicação de notícias na WEB)
0 objetivo deste projeto é a pesquisa e implementaçâo de um produto inovador para edição e publicação de conteúdo que viabilize a produção de conteúdo na WWW em larga escala, em tempo e custo reduzidos. A produção de conteúdo para a WWW, seja este aplicado a cursos de treinamento, cursos de educação a distância, sites jornalísticos ou de informação em geral, envolve tipicamente uma equipe formada por especialistas de conteúdo, projetistas instrucionais ou publicadores, projetistas gráficos e programadores. 0 custo e o tempo de preparação desse conteúdo normalmente é grande, o que leva empresas, por exemplo de treinamento, que têm um número muito grande de cursos presenciais e querem transportá-los para a WWW, a refrear essa transposição em larga escala. Uma forma de reduzir o tempo de preparação de conteúdo é o reaproveitamento de material já gerado, além do acesso a material gerado por terceiros e armazenado em fontes externas. 0 uso de modelos de esquemas prédefinidos variados, prontos para serem aplicados, com a flexibilidade de criação de novos esquemas sob demanda, além da associação e reutilização de qualquer tipo de mídia a esses esquemas, contribui também para a redução de tempo e de custo na geração de conteúdo em larga escala. Existem hoje no mercado inúmeros produtos de editoração e publicação de conteúdo na WWW, que vão de simples editores até sofisticados sistemas ASPs. Entretanto, esses sistemas apresentam várias limitações, entre elas: funcionam em ambientes proprietários; não suportam acesso a fontes externas de conteúdo; não suportam a distribuição de dados; não suportam o reaproveitamento de módulos e de conteúdo; não promovem integração com outras aplicações; hão suportam escalabilidade; provêem visão apenas parcial do curso no momento de sua editoração e publicação; provêem interface não intuitiva na edição de conteúdo; oferecem recursos fixos e limitados quando da inserção de conteúdo multimídia nas apresentações; utilizam-tecnologias ut
Membro: Rodrigo Fernandes de Mello.
7.   2002-2002. Projeto Integrado - Processo CNPq Nº 52.1685/98-6
Projeto integrado de Pesquisa intitulado "Suporte a Imagens como Atributos Nativos em Bancos de Dados", projeto aprovado pelo CNPq (processo Nº 52.1685/98-6) com validade de 2 ano a partir de agosto de 2002. Aprovadas 2 bolsas de IC e 1 bolsa de pesquisa nível 2A.
Membro: Caetano Traina Junior.
8.   2002-2002. Projeto Lácio-Web
Para atender o objetivo de aumentar o volume de conteúdo em português na Web, são necessárias ferramentas automáticas de criação e manipulação desse conteúdo. Nesse cenário, o problema em torno do qual se organiza esta proposta é prover recursos computacionais e lingüísticos básicos que dão suporte à construção de ferramentas automáticas (de recuperação e extração inteligentes da informação, reconhecimento de fala, correção ortográfica e gramatical, por exemplo) para o português --- a exemplo do que ocorreu e ocorre com o inglês. Corpora são considerados o recurso mais básico para a pesquisa da língua através de métodos empíricos. O objetivo deste projeto é a construção e disponibilização de recursos de base, isto é, corpora representativos da língua e suas ferramentas associadas de apoio à anotação manual, navegação e busca, e dessa forma, começar um processo de equiparação do português ao tratamento automático de outras línguas.
Membro: Sandra Maria Aluísio.
9.   2002-2002. Um arquitetura inteligente para Controle de Múltiplos Robôs
O desenvolvimento de arquiteturas de controle para múltiplos robôs em ambientes dinâmicos tem sido tema de pesquisas na área de robótica. A complexidade deste tema varia de acordo com as necessidades exigidas da equipe de robôs. Em geral, espera-se que os robôs colaborem uns com os outros na execução de uma tarefa. Além disso, cada robô deve ser capaz de planejar trajetórias e replanejá-las em caso de situações inesperadas. Nesta linha de pesquisa foi proposta uma arquitetura de controle inteligente para múltiplos robôs denominada ACIn. Para esta finalidade, foram investigadas algumas técnicas consideradas inteligentes, tais como, Redes Neurais Artificiais, Campos Potenciais e Campos Potenciais baseados em Problema do Valor de Contorno (PVC). Tais técnicas, normalmente utilizadas para um único robô, foram adaptadas para tornar possível o controle de múltiplos robôs sob arquitetura ACIn. Uma outra contribuição deste trabalho refere-se ao aperfeiçoamento da técnica de Campos Potenciais baseada PVC denominada Campos Potenciais Localmente Orientados (CPLO). Este aperfeiçoamento foi proposto para suprir a deficiência das técnicas baseadas em PVC quando estas são aplicadas em ambientes com múltiplos robôs. Além disso, deve ser notado que um Sistema Baseado em Regras (SBR) também foi proposto como parte integrante da arquitetura ACIn. O objetivo do SBR é caracterizar a funcionalidade de cada robô para uma determinada tarefa. Isto se faz necessário para que o comportamento dos integrantes da equipe de robôs não seja competitivo e sim colaborativo. Por fim observou-se, através dos experimentos com o ambiente simulado de futebol de robôs, a arquitetura de controle inteligente (ACIn) com a técnica de planejamento CPLO e SBR propostos, mostrou ser robusta no controle de múltiplos robôs.
Membro: Roseli Aparecida Francelin Romero.
10.   2002-2002. VisIR - Indexação, Recuperação e Visualização de Dados Multimídia em um Sistema de Arquivamento de Imagens Médicas

Membro: José Fernando Rodrigues Júnior.
O objetivo direto desse projeto é o desenvolvimento de um ferramental teórico e prático para a análise e indexação de imagens, que permita a visualização das análises feitas sobre os conjuntos de imagens de forma multi-modal, isto é, segundo abordagens diferentes (por atributo em linhas, por pixels e cores, por projeção e mapeamento). É importante ressaltar desde o início que os processos de visualização a que se refere este projeto correspondem à visualização dos conjuntos de imagens, seus relacionamentos, agrupamentos, etc., e não à visualização de cada imagem individual (por exemplo de um exame médico). A recuperação de imagens por conteúdo vale-se da extração de características das imagens, porém as características extraídas individualmente têm pouco significado de forma isolada para a busca de imagens específicas. Assim, para que as consultas recuperem imagens significativas em aplicações destinadas ao usuário final, é necessário que as consultas especifiquem detalhadamente como as características devem ser comparadas, integrando diversas características na mesma consulta. Este projeto tem por objetivo a disponibilidade desse ferramental para auxiliar o preparo das consultas que serão embutidas em aplicativos para o usuário final. Para atingir esse objetivo, o projeto deve explorar a utilização de maneira integrada de quatro recursos: sistemas de bancos de dados relacionais; indexação de dados em domínios métricos; consultas por similaridade; e mineração visual interativa de dados. Como a idéia é integrar a capacidade de processamento dos computadores com a capacidade humana de interpretação de informações representadas graficamente, para "afinar" as consultas feitas sobre conjuntos de imagens, serão utilizadas as consultas por similaridade, apoiadas por estruturas de indexação métricas (aproveitando a capacidade de processamento dos computadores), juntamente com operaçtes de seleção visual, onde o usuário interage com visualizações geradas.
Membro: Agma Juci Machado Traina.

2001

1.   2001-2001. FAPESP (Auxílio Pesquisa 2000/12658-0) MODELAGEM, PROJETO E IMPLEMENTACAO DA INFRA-ESTRUTURA SERVE: INFRASTRUCTURE FOR STORE, EXTEND, RETRIEVE AND VISUALIZE EVOLUTIONARY MULTIMEDIA INFORMATION

Membro: Maria da Graca Campos Pimentel.
2.   2001-2001. InfoVis - Visualização de Informação Aplicada a Dados de Comércio Eletrônico e Climatologia
O uso de técnicas de visualização exploratória ainda é bastante limitado em contextos práticos, particularmente no cenário nacional, devido à ausência tanto de conhecimento sobre as mesmas como de sistemas de domínio público que suportem a sua efetiva utilização sem demandar um esforço considerável do usuário. A proposta deste projeto é oferecer uma plataforma acessível que viabilize o uso dessas técnicas em contextos reais, permitindo que se estabeleça um relacionamento cooperativo com potenciais usuários para estudar e tratar os problemas e limitações que impedem a sua efetiva utilização.
Membro: Maria Cristina Ferreira de Oliveira.
3.   2001-2001. Integração do Processamento Simbólico e Conexionista em Sistemas Baseados em Conhecimento
Projeto PROCAD
Membro: Solange Oliveira Rezende.
4.   2001-2001. Memória Virtual de São Carlos
São Carlos e região apresentam uma diversidade de acervos de inestimável valor histórico, contendo documentos de caráter diversificado, os quais podem encontrar-se em estado precário de conservação ou mesmo ser desconhecidos por pesquisadores. Esforços isolados, tanto públicos quanto privados, no sentido de organizar os acervos e disponibilizá-los aos interessados são identificados mais recentemente. Este projeto tem como objetivo contribuir para o resgate da história do município e da própria história do Brasil. Em uma primeira instância, pretende-se desenvolver um sistema WEB para a gestão integrada desses acervos; mais especificamente, para a organização, o armazenamento e a disponibilização das informações do patrimônio histórico e cultural municipal e regional. Para o desenvolvimento do sistema, um pré-requisito essencial é a definição e a padronização da forma e dos acessos a essas informações históricas e culturais. A definição e padronização são realizadas por meio das normas e dos padrões da Representação Descritiva e Temática, sub-área da Ciência da Informação, que visa a descrever os documentos de forma a garantir a qualidade e a acessibilidade das informações disponibilizadas, bem como a integração de várias redes de informação tanto nacionais quanto internacionais. Tanto o processo de desenvolvimento quanto o sistema WEB resultante deste projeto estão calcados na filosofia de software livre, motivando que outras entidades similares (Prefeituras, Fazendas, Associações, etc) possam também fazer uso desse sistema, beneficiando assim a comunidade em geral, pela disponibilização de seus acervos. Em última análise, pretende-se constituir um mecanismo para a implantação de um sistema distribuído que integre e disponibilize o acervo municipal e regional. (Programa Políticas Públicas FAPESP, Processo 03/06434-003
Membro: Maria Cristina Ferreira de Oliveira.
5.   2001-2001. Sala de Aula Virtual
Pretende-se também uma melhoria do material já disponível (em HTML) com o uso de software de geração e gerenciamento de páginas Web mais moderno. O ICMC-USP dispõe de alguns projetores multimídia e computadores em rede para uso em sala de aula. Recursos: USP - PróReitorias de Pesquisa e Ensino R$ 9.860,00
Membro: Dilvan de Abreu Moreira.
6.   2001-2001. Sistemas de Indexação de Imagens para Busca por Conteúdo: Aplicações em Imagens Médicas
Os chamados Sistemas de Informaçtes Médicas (SIM) armazenagem informaçtes textuais (nome, idade, tratamento, etc.) e em alguns casos permitem a associaçno das informaçtes textuais com informaçtes gráficas, provenientes de exames como Raio-X, tomografia (CT ou RM), ultrasson, etc. Recentemente, com a introduçno dos sistemas PACS (Picture Archiving and Communication Systems), cresceu o interesse por integrar num sistema só todas as informaçtes dos pacientes (textos, imagens, gráficos temporais, etc). Em sistemas PACS pode-se recuperar também informaçtes baseadas apenas no conteúdo das próprias informaçtes. Por exemplo, pode-se querer recuperar "todas as imagens obtidas em exames de CT de coraçno similares a uma imagem dada". Nesse caso, o cruzamento das informaçtes é independente das chaves de busca tradicionais baseadas em informaçtes numéricas e textuais, as quais associam exames e pacientes em um SIM tradicional. A facilidade de recuperaçno de dados baseada em seu conteúdo é um dos pontos altos dos sistemas PACS. Um sistema PACS deve entno ser capaz de responder consultas por similaridade, isto é, questtes do tipo: 'quais sno as 10 imagens mais próximas de uma dada imagem' ou 'quais sno as imagens que diferem de até 5 unidades de uma imagem padrno'. Note que tanto as imagens quanto a funçno de dissimilaridade (distância) entre elas devem ser definidas. O presente projeto trata do desenvolvimento de um dos módulos principais de um sistema PACS, que é o Sub-Sistema de Recuperaçno de Imagens por Conteúdo (SiRIC). Esse sub-sistema integra um módulo gerenciador de indexaçno e um módulo de extraçno de parâmetros de imagens, os quais serno utilizados para o armazenamento e a recuperaçno das imagens no banco de dados da aplicaçno.
Membro: Agma Juci Machado Traina.
7.   2001-2001. Suporte Tecnológico para o Aprendizado Colaborativo de Desenvolvimento de Software

Membro: João Luís Garcia Rosa.

2000

1.   2000-2000. Agentes Inteligentes para Análise e Recuperação da Informação
Título: Agentes Inteligentes para Análise e Recuperação da Informação Projeto CAPES-SCyT Brasil-Argentina, período 03/2000 a 02/2003 Sumário: O projeto têm como finalidade o trabalho cooperativo relacionado ao aprimoramento das pesquisas realizadas pela equipe de pesquisadores, bem como a formação de novos pesquisadores na área de recuperação e análise de informação mediante a utilização de diferentes métodos provenientes de áreas tais como como aprendizado de máquina (simbólico e conexionista), data mining, raciocínio baseado em casos e redes neurais. As atividades de treinamento e formação de pessoal envolvida com a execução deste trabalho são aquelas decorrentes do próprio desenvolvimento das atividades previstas, como orientação de alunos de mestrado e doutorado, intercâmbio entre pesquisadores de Argentina e Brasil, desenvolvimento de trabalhos conjuntos e participação e apresentação de trabalhos em reuniões científicas. Objetivo: pesquisar e desenvolver métodos e ferramentas relacionados ao desenvolvimento de Sistemas Inteligentes mediante o uso de Agentes Inteligentes de busca, Raciocínio Baseado em Casos e Aquisição de Conhecimento utilizando Aprendizado de Máquina (simbólico e conexionista) e Data Mining bem como pesquisar e implementar, combinando esses métodos, agentes autônomos inteligentes de busca e de interface. Equipe: sete pesquisadores de duas instituições e três unidades de pesquisa participam deste projeto Universidade de São Paulo-Brasil Instituto de Ciências Matemáticas e de Computação (ICMC) e Escola Politécnica da USP (EPUSP) Universidade Nacional del Centro de la Provincia de Buenos Aires-Argentina, Instituto de Investigación en Sistemas (ISISTAN) Recursos: são contemplados, principalmente, bolsas para alunos de pós-graduação do Brasil na Argentina e da Argentina no Brasil, bem como viagens dos pesquisadores para ministrar seminários e desenvolver pesquisa nas instituições
Membro: Solange Oliveira Rezende.
2.   2000-2000. Aprendizado de Robôs Móveis via Hardware e Software - ARMOSH
Este projeto, apoiado pela FAPESP, consiste no estudo e desenvolvimento de algoritmos para controle de robôs móveis envolvendo diversos aspectos: navegação de robôs móveis, localização de robôs móveis, aprendizado de robôs móveis, reconhecimento de objetos, faces, .... Este projeto objetiva a construção de uma biblioteca de algoritmos implementados tanto em nível de software quanto em nível de hardware, buscando a utilização dos mesmos para melhoria no tempo de resposta de robôs móveis, em tempo real. Algumas aplicações estão sendo desenvolvidas. Entre elas se encontram: ?Desenvolvimento de um sistema para tornar o robô móvel Pioneer I capaz de fazer a entrega/coleta de documentos nas secretarias do ICMC-USP? e ?Desenvolvimento de um sistema para tornar o robô móvel Pioneer I capaz de navegar em uma pista de um chão-de-fábrica, utilizando análise de imagens?.
Membro: Roseli Aparecida Francelin Romero.
3.   2000-2000. C-Register usando J2EE
Desenvolvimento de um cadastro centralizado de usuários, grupos, relatórios de acesso usando a tecnologia J2EE (JSP, JavaBeans e Enterprise Java Beans).
Membro: Rodrigo Fernandes de Mello.
4.   2000-2000. CNPq-NSF Projeto de Cooperação Internacional InCA-SERVE, http://coweb.icmc.usp.br/incaserve
The aim of this research is to integrate flexible hypermedia infrastructures to automated capture environments in order to support long-term use. Previous work by the group at Georgia Tecg has aimed at making capture a ubiquitous service at any point in time and over a short period of time. The real use of the infrastructure has created the interesting problem of having too much information available. The objective of the joint research is to find flexible and customizable information access solutions that scale over time, increasing the benefit of captured memories for the human as time passes and more information is captured. Our approach to this problem is to view capture as only one part of the information acquisition process in any given application. We introduce a spiral model for capture that stresses how the capture repository must be viewed as an ever-growing container for activities and knowledge that occurs before, during and after live capture sessions. As the repository grows over time, specialized automated services must be created that add structure by highlighting inter-relationships between the captured experiences and activities that occur outside of capture. Moreover, flexible services for structuring and accessing the information must be provided. Work that involved Abowd and Pimentel demonstrated how the digital media of the captured lecture can serve as an effective anchor for collaborative discussions and Web-based homework assignments
Membro: Maria da Graca Campos Pimentel.
5.   2000-2000. Desenvolvimento de um Sistema Inteligente para Recuperação de Informação
Este projeto consistiu em investigar a possiblidade de se incorporar SAM em Redes Neurais Artificiais (RNA) do tipo SOM. Recuperação de Informação por Similaridade (RIS) é uma tarefa complexa que geralmente envolve grandes e complexos volumes de dados. Dois grupos de técnicas são amplamente utilizadas em RIS, Mapas Auto-organizáveis (SOM) e Métodos de Acesso Métricos (MAM). Contudo, ambas as abordagens apresentam vários problemas. A maioria dos SOMs utilizam intensivamente comparações seqüenciais para encontrar a unidade vencedora, durante o processo de aprendizado. Por outro lado, os MAMs não tiram vantagem do conhecimento gerado pelas ?perguntas? prévias feitas ao sistema. De modo a tentar solucionar estes problemas, duas novas técnicas são propostas para melhorar o processo RIS. A primeira delas é baseada em SOM e a segunda é baseada em MAM. Primeiramente, SOM tem sido usada juntamente com SAM (Métodos de Acesso Espacial) e MAM de forma a melhorar os sistemas baseados em SOMs, produzindo duas novas famílias de técnicas para RIS, denominadas SAMSOM e MAMSOM, respectivamente. Em segundo lugar, SAM e MAM por si só foram melhoradas através da proposta dos PMAM, que é um módulo de plug-in o qual é utilizado para retirar vantagem do conhecimento adquirido pelas ?queries? previamente apresentadas ao sistema de modo a tornar o processo de RIS mais rápido. A combinação de PMAM juntamente com uma técnica SAM ou MAM produziu as Famílias de Métodos de Acesso: SAM+ e MAM+ , respectivamente. Adicionalmente, as famílias SAM+ e MAM+ são capazes de reduzir gradualmente o número de operações necessárias para responder uma ?query?, quando novas ?queries? são apresentadas ao sistema. Isto é possível proque PMAM permite que elas aproveitem o conhecimento gerados através de sucessivas ?queries?.
Membro: Roseli Aparecida Francelin Romero.
6.   2000-2000. Grupo de Computação Gráfica e Processamento de Imagens do ICMC
O projeto visa a implementação de tecnicas de processamento de imagens (pré-processamento e segmentação , principalmente), bem como o desenvolvimento e disponibilização de interfaces livres para processamento. Além disso, o grupo desenvolve trabalhos voltados a visualização científica, especificamente no campo de visualização e modelagem baseada em imagens, no intuito de reconstruir cenas a partir de imagens aéreas capturadas por aeromodelos guiados por rádio.
Membro: João do Espirito Santo Batista Neto.
7.   2000-2000. IMiMD - Indexação e Mineração de Dados Multimídia
Os Sistemas de Gerenciamento de Bases de Dados atuais estão sendo cada vez mais utilizados para o armazenamento e recuperação de dados que não são apenas numéricos e/ou textuais. Entre esses novos tipos de dados considerados não tradicionais, encontram-se os dados do tipo multi-dimensionais (vetor espacial multi-dimensional) e adimensionais (ou não-dimensionais), por exemplo: áudio digitalizado, partituras musicais, hipertextos, imagens, séries temporais, estruturas moleculares, indexação de palavras, cadeias de DNA, impressões digitais etc.. O tipo de estrutura utilizado pelos métodos ISAM (Indexed Sequential Access Methods) não pode ser aplicado com esse tipo de informação. Assim, para o tratamento de dados do tipo n-dimensional existem diversas Estruturas de Dados Espaciais que permitem um melhor aproveitamento da natureza multi-dimensional dos dados. Essas técnicas também são conhecidas como Métodos de Acesso Espacial - SAM (Spatial Access Methods), e trabalho pioneiro nessa área foi o de R-Trees. Devido aos problemas existentes com os SAMs, e poucas referências existentes de MAMs, uma outra tecnologia que se apresenta como uma alternativa na tentativa de melhorar o desempenho no tratamento de dados multi-dimensionais e adimensionais são as RNAs (Redes Neurais Artificiais). Estas estruturas apresentam características semelhantes às estruturas métricas com relação a capacidade de comparar dados por medidas de similaridade e reconhecer padrões em grandes conjuntos de dados. Uma característica conhecida das RNAs é a sua Tolerância a Falhas, isto é, capacidade de associar dados com ruído à classe com que ele tem maior grau de semelhança. O objetivo principal deste trabalho é investigar uma possibilidade de aplicação dos modelos de RNAs ART no processo de Indexação e Recuperação de informações. Estas RNAs são objetos de estudo neste trabalho por serem dotadas da capacidade de incorporar novos conhecimentos de forma dinâmica.
Membro: Roseli Aparecida Francelin Romero.
8.   2000-2000. IMiMD - Indexing and Data Mining in Multimedia Databases

Membro: José Fernando Rodrigues Júnior.
Este projeto envolve cooperação científica entre instituições de pesquisa brasileiras coordenadas pelo Instituto de Ciências Matemáticas e Computacionais - ICMC da USP em São Carlos e a Carnegie Mellon University - CMU. A duração do projeto é de 4 anos, e pretende enfocar dois problemas relacionados: a indexação de informações multimídia, tratadas como conjuntos de dados em espaços métricos; e o desenvolvimento de técnicas de ?data mining ? para a visualização e descoberta de padrões nesses conjuntos. Uma consulta típica envolvendo esses tipos de dados poderia ser: ?encontre todos os rostos de pessoas que estejam dentro de determinado grau de similaridade de um rosto dado?. Já uma consulta cuja resposta necessita o emprego de técnicas de data mining seria: ?encontre todos os pares de impressões digitais dentro de determinado grau de similaridade?. A função de dissimilaridade é específica para o domínio de dados em questão, e sempre que ela for comutativa e respeitar a desigualdade triangular, o conjunto de dados será considerado em um espaço métrico. Técnicas já desenvolvidas pelo coordenador americano mostraram como mapear objetos de um espaço métrico para um espaço vetorial de características (?features?). Assim, espaços vetoriais (ou espaciais), métricos e espaços multimídia são conceitos estreitamente ligados. Para as tarefas de indexação dos dados multimídia, este projeto propõe: prover técnicas de estimativa de seletividade e de acessos a disco para responder esses tipos de consultas; e tornar mais eficientes as estruturas de indexaçno em espaços métricos existentes, melhorando os algoritmos e estruturas de dados empregadas. Nosso otimismo em atingir esses objetivos são baseados em trabalhos conjuntos já realizados, que indicaram que a distribuição de distâncias em espaços métricos e espaciais frequentemente segue uma razão de potíncias. Essa é a primeira e ainda única evidência de alguma regularidade observada em conjuntos de dados métricos reais.
Membro: Agma Juci Machado Traina.
9.   2000-2000. INFRA-ESTRUTURA PARA ARMAZENAMENTO, RECUPERAÇÃO, VISUALIZAÇÃO E EXTENSÃO DE INFORMAÇÃO HIPERMÍDIA EVOLUCIONÁRIA - INCA-SERVE
The aim of this research is to integrate flexible hypermedia infrastructures to automated capture environments in order to support long-term use. Previous work by the group at Georgia Tecg has aimed at making capture a ubiquitous service at any point in time and over a short period of time. The real use of the infrastructure has created the interesting problem of having too much information available. The objective of the joint research is to find flexible and customizable information access solutions that scale over time, increasing the benefit of captured memories for the human as time passes and more information is captured. Our approach to this problem is to view capture as only one part of the information acquisition process in any given application. We introduce a spiral model for capture that stresses how the capture repository must be viewed as an ever-growing container for activities and knowledge that occurs before, during and after live capture sessions. As the repository grows over time, specialized automated services must be created that add structure by highlighting inter-relationships between the captured experiences and activities that occur outside of capture. Moreover, flexible services for structuring and accessing the information must be provided. Work that involved Abowd and Pimentel demonstrated how the digital media of the captured lecture can serve as an effective anchor for collaborative discussions and Web-based homework assignments
Membro: Renata Pontin de Mattos Fortes.
10.   2000-2000. IPROS - Integrated Production and Supply Chain Management. SAP Research / Applications Award
O projeto intitulado Integrated Production and Supply Chain Management conta com a participação de sete professores (6 da Engenharia Mecânica/Produção, 1 da Computação) para a elaboração de uma forma de gerenciamento eficiente da cadeia de produção. Neste projeto trata-se tambem do "Projeto e Desenvolvimento de um Datawarehouse para Gerenciamento da Cadeia de Produção" que sou responsável.
Membro: Solange Oliveira Rezende.
11.   2000-2000. Metodologia para Previsão de Impactos do Tráfego Intra-Urbano sobre a Qualidade do Ar
Atualmente, a maioria das cidades os veículos automotores são as maiores fontes de poluição do ar. A emissão de gases pelo tubo de escapamento ocorre devido às reações químicas, associadas ao processo de combustão que ocorre no motor. Os gases HC, CO, NOx, material particulado e fumaça são praticamente emitidos pelo escapamento, embora, essas emissões dependem muito do tipo, idade e manutenção do veículo, tipo de motor, combustível utilizado, as características do sistema de combustão do veículo, e a presença do catalisador. Porém, em regiões congestionadas, o tráfego de veículos responde cerca de 80% das emissões de CO em zonas de intensa atividade. Sendo que o acumulo do CO depende não só do número, tipo e das condições de tráfego, mas também dos fatores meteorológicos (gradiente vertical de temperatura, grau de insolação, velocidade e direção dos ventos, etc.) e das condições de dispersão, como por exemplo, a topologia das edificações. Todos estes fatores devem ser considerados em seu conjunto para obter um modelo que possa prever com sucesso novas situações que se assemelhem àquelas já estudadas. Este projeto visa a aplicação do modelo de rede neural artificial - RNA para realizar a previsão da concentração de CO em áreas urbanas, obtendo um desempenho satisfatório comparado às técnicas de Regressão Linear Multivariada - RLM e Função Quadrática - FQ. O SIG proporciona informações espaciais sobre o nível de emissão de poluentes juntamente com os fatores que interagem, identificando as características do uso e ocupação do solo, fluxo médio de veículos a emissão e dispersão de CO. A diferença do SIG para com os outros sistemas é realmente a capacidade de conduzir pesquisas espaciais e os "overlays" que possibilitam até gerar e manipular outras informações pertinentes ao planejamento urbano.
Membro: Roseli Aparecida Francelin Romero.
12.   2000-2000. Protem-CC/NSF Processo CNPq Nº 860.068/00-7
Projeto de Cooperação Internacional Protem-CC/NSF Processo CNPq Nº 860.068/00-7, Valor Global: R$ 217.576,02, com validade de 3 anos a partir de 01 de Setembro de 2000. Renovado até dezembro de 2004. Parceiro Americano: Christis Faloutsos - Carngie Mellon university, Pittsburgh Parceiros Nacionais: ICMC-USP IME-USP UFSCar UNESP-Rio Preto
Membro: Caetano Traina Junior.
13.   2000-2000. Recursos Complementares para Apoio a Grupos de Pesquisa - Projeto IPROS - Integrated Production and Supply Chain Management
O projeto intitulado Integrated Production and Supply Chain Management conta com a participação de sete professores (6 da Engenharia Mecânica/Produção, 1 da Computação) para a elaboração de uma forma de gerenciamento eficiente da cadeia de produção, utilizando-se para isso, softwares licenciados como R/3TM, Business Information Warehouse - BIWTM e SQL Server 7.0TM de empresas como SAP® e Microsoft®. Esses softwares rodam em plataforma WindowsTM e arquitetura PC, necessitando para isso, de computadores de grande capacidade de processamento, armazenamento e memória. O tipo de processamento executado na utilização desses softwares, deve-se principalmente, a consultas e manipulação de Sistemas Gerenciadores de Banco de Dados (SGBDs) e ferramentas para construção/manipulação de Data Warehouses (DWs) que serão utilizados para o gerenciamento da cadeia de produção. Esses aplicativos exigem grande velocidade de processamento e memória, principalmente entre os softwares R/3TM e BIWTM, o que faz com que este tipo de execução torne-se lenta e muitas vezes inviável em computadores que não possuem recursos parecidos com o que foi especificado neste pedido, podendo atrasar os resultados dos experimentos e conseqüentemente o cronograma do projeto. Por outro lado, os recursos destinados ao sub-projeto "Projeto e Desenvolvimento de um Datawarehouse para Gerenciamento da Cadeia de Produção" são destinados, em sua maioria, ao pagamento de pessoal. Recurso Complementar de R$ 3.500,00
Membro: Solange Oliveira Rezende.
14.   2000-2000. Sistemas Auto-organizáveis para segmentação de imagens
O Objetivo deste projeto é o de investigar métodos de auto-organização para classificação não-supervisionado e clusterização aplicados a tarefas de segmentação de imagens. Uma metodologia para pré-processamento de imagens, que combina o método Sparse Code Shrinkage para redução de ruídos e suavização da imagem e o detector de bordas de Sobel, que tem a função de restaurar as bordas que foram borradas pelo processo de suavização. Nos experimentos com imagens apresentados pode-se observar que, de fato, a metodologia de pré-processamento proposta levou a uma melhoria nos resultados de segmentação obtidos pela rede Fuzzy ART e pelo modelo EICAMM. O outro modelo auto-organizável considerado neste trabalho foi o modelo ICAMM, originalmente proposto para a classificação não supervisionada de um conjunto de dados, nos quais a modelagem das classes baseia-se no método ICA. Apesar de algumas características promissoras do ICAMM terem sido reportadas no seu trabalho original, no presente trabalho, apesar das inúmeras tentativas, não foi obtido sucesso na reprodução dos resultados experimentais obtidos pelos seus autores. Como pode ser observado nos experimentos com dados simulados e com o conjunto de dados de flores Iris, o ICAMM apresentou uma convergência muito lenta e resultados de classificação insatisfatórios. Com o objetivo de melhorar o desempenho do ICAMM, no presente trabalho foi proposto o modelo EICAMM, derivado a partir de algumas modificações realizadas no ICAMM, considerando-se aspectos de modelagem e implementação. Uma das contribuições mais importantes é a incorporação do método de otimização de Levenberg-Marquardt ao algoritmo de aprendizagem, para garantir e melhorar a convergência do modelo.
Membro: Roseli Aparecida Francelin Romero.

1999

1.   1999-1999. IMiMD - Indexing and Data Mining in Multimedia Databases
Esse projeto teve como objetivo o desenvolvimento de técnicas, algoritmos e ferramentas de software para suportar o tratamento de informações multimídia, como imagens, vídeo e áudio além de estruturas complexas, como representação de móleculas e estruturas genéticas, em bases de dados multimídia. Todo o projeto foi centrado em utilizar o conteúdo dos dados tratados para possibilitar a indexação, recuperação baseado em conteúdo e descoberta de dados. Esse projeto integrou as áreas de Banco de Dados, Inteligência Artificial e Visualização de Dados, sendo que contou com a participação de especialistas em todas elas.
Membro: Solange Oliveira Rezende.
2.   1999-1999. Núcleo de chaveamento de contexto do kernel Virtuoso
Gerenciamento e Desenvolvimento do núcleo de chaveamento de contexto do kernel de tempo real Virtuoso para suporte à plataforma Intel x86.
Membro: Rodrigo Fernandes de Mello.
3.   1999-1999. Recursos Complementares para Apoio a Grupos de Pesquisa - Projeto Sistemas Inteligentes para Engenharia
Recursos Completares relacionados com o projeto RECOPE-IA (Projeto financiado pela FINEP dentro do programa de Redes Cooperativas de Pesquisa (RECOPE))
Membro: Solange Oliveira Rezende.
4.   1999-1999. TraSem - Especificação dos Traços Semânticos dos Itens Lexicais
Este projeto consistiu na investigação de possibilidade de especificação de conhecimento semântico no léxico do ReGra - REvisor GRAmatical - para melhorar seu desempenho.
Membro: Thiago Alexandre Salgueiro Pardo.

1998

1.   1998-1998. Aplicações de Informática para Engenharia
Desenvolvimento de técnicas de apoio à Engenharia baseadas em processamento de imagens e visão computacional.
Membro: Agma Juci Machado Traina.
2.   1998-1998. Midia Lab
MIDIALAB possui três áreas básicas de pesquisa: Animação, Edição Digital e Multimídia. A área de Edição Digital possui um papel central para todas as pesquisas científicas que serão realizadas, e a grande vantagem do MIDIALAB é sua capacidade de, através da área de Edição Digital, integrar todas as demais áreas. Sendo assim, toda administração e "coordenação" dos projetos de pesquisa deverá ocorrer a partir da área de Edição Digital. O modelo Single Master "Domain" Model foi adotado. Neste modelo temos 03 (três) "Domains" de recursos ("Resource Domains"): "Domain" Multimídia, "Domain" Ensino e "Domain" Animação. O "Master Domain" é representado pelo "Domain" Edição Digital (para edição, montagem e administração). As setas representam as relações de trust, cuja função principal é permitir que os usuários de um determinado "Domain" possam acessar recursos de outros "Domains". Este tipo de relação é implementada pelo administrator através de ferramentas administrativas do Windows NT ("User Manager for Domains" - "Trust Relationship"). Assim, por exemplo, um pesquisador poderá gerar uma sequência de animação em equipamentos do "Domain" Animação e acessar esta sequência a partir de estações do "Domain" Edição Digital para pós-produção acrescentando a trilha sonora. Caberá ao administrador do "Domain" manter a integridade da estrutura do modelo, facilitando a utilização cotidiana de aplicativos e consequentemente o desenvolvimento dos projetos de pesquisa. Cabe salientar que devido a distribuição de recursos e as características interdisciplinares dos projetos de pesquisa, um determinado projeto poderá aparecer em mais de um "Domain".
Membro: Agma Juci Machado Traina.
3.   1998-1998. Visualização no Suporte à Atividades Odontológicas
Em Odontologia, a aplicação de técnicas de Visualização Científica não tem acompanhado o desenvolvimento observado em outras áreas, como a de Medicina. Este projeto visa dar continuidade a esforços iniciados anteriormente no sentido de levar o potencial da Visualização para a área odontológica. Em continuidade a trabalhos já desenvolvidos, este projeto multi-disciplinar pretende investigar, desenvolver e implementar técnicas de visualização volumétrica e exploração tridimensional a dados dentários coletados a partir de dentes reais, com o objetivo de apoio ao estudo, treinamento e ilustração de procedimentos de odontologia, de forma integrada à WWW. Acredita-se que a demanda por esses resultados é bastante ampla, e que a pesquisa envolvida virá a contribuir na solução de problemas de exploração interativa de objetos de visualização científica dependentes da aplicação.
Membro: Maria Cristina Ferreira de Oliveira.

1997

1.   1997-1997. Estudo Comparativo dos Formalismos Gramaticais DCG, LFG e GPSG
Estudo comparativo das formalismos gramaticais DCG, LFG e GPSP com vistas para a produção de um método automático de redução entre eles.
Membro: Thiago Alexandre Salgueiro Pardo.
2.   1997-1997. Integração e Aperfeiçoamento do Sistema Distribuído de Geração de Layouts Agents
O sistema Agents é um conjunto de programas criados para gerar automaticamente full custom layout de leaf cells para circuitos VLSI nas tecnologias CMOS e bipolar. Leaf cells são subcircuitos de complexidade comparável a componentes SSI (Small Scale Integration), como somadores, flip-flops ou multiplexadores. Elas formam as bibliotecas a partir das quais circuitos VLSI complexos são montados. O sistema Agents original é formado por quatro servidores: · O Placer posiciona componentes em uma célula. · O Router interconecta os componentes das células. · O Database guarda todas as informações dependentes do processo de fabricação usado. · O Broker arbitra a comunicação entre os outros servidores e seus clientes. O principal objetivo desse projeto foi desenvolver software que permitisse que estes servidores do programa Agents possam ser executados de forma paralela em máquinas com múltiplos processadores. Esse novo programa, chamado Agents 2, foi escrito em Java e usa apenas dois tipos de servidores (Placer e Router). Recursos: Tipo: FAPESP - Auxílio a Pesquisa Proc.: 96/04322-5 Recurso: US$ 28725.71 Fundo de Pesquisa - USP Processo no. 98.1.28638.1.7 Recurso: R$ 3.100,00
Membro: Dilvan de Abreu Moreira.
3.   1997-1997. Investigação e Desenvolvimento de Técnicas de Sumarização Automática de Textos
Investigação e desenvolvimento de técnicas de sumarização automática de textos para o português do Brasil, enfocando-se abordagens superficiais e profundas.
Membro: Thiago Alexandre Salgueiro Pardo.
4.   1997-1997. Sistemas Híbridos Inteligentes para Extração de Conhecimento de Bases de Dados
Este projeto trata da investigação de técnicas para Sistemas Híbridos voltadas para extração de Conhecimento. 2 bolsas de IC foram liberadas.
Membro: Solange Oliveira Rezende.
5.   1997-1997. Sistemas Inteligentes para Engenharia do Projeto RECOPE - da rede Informática Aplicada a Engenharia subrede Inteligência Artificial
Projeto financiado pela FINEP dentro do programa de Redes Cooperativas de Pesquisa (RECOPE) Sumário e Objetivo: o projeto tem como um de seus objetivos centrais criar vantagens competitivas sustentáveis para que empresas e organizações brasileiras possam competir em uma economia cada vez mais baseada em informação e conhecimento. Para melhor atingir seus objetivos, a rede foi dividida em três grupos de trabalho: Grupo de Redes Neurais, Lógica Fuzzy e Aplicações; Grupo de Data Mining e Aplicações; Grupo de Aquisição de Conhecimento e Aplicações. As pesquisadoras do ICMC trabalham no grupo de Data Mining e Aplicações. Redes Neurais , Lógica Fuzzy e Aplicações: Desenvolver aplicações em Redes Neurais e Lógica Fuzzy para mostrar a empresas a viabilidade destas técnicas para a solução de problemas, como: Previsão; Diagnóstico; Compactação de dados; Classificação; Aproximação; Categorização; Extração de regras. Data Mining e Aplicações: Trabalhar com Extração de Conhecimento de Bases de Dados reais, mostrando a viabilidade das técnicas de Data Mining na solução de problemas como: Diagnóstico de Falhas em Equipamentos; Bases de Dados ligadas à área petrolífera; Bases de Dados ligadas à área de seguros. Aquisição de Conhecimento e Aplicações: Desenvolver um Sistema Baseado em Conhecimento para a detecção de falhas em transformadores de potência a partir do resultado de ensaios de laboratório. Construir um sistema tutorial sobre a elaboração dos ensaios que poderia ser usado para melhorar a qualidade dos resultados dos mesmos, assim como capacitar mais rapidamente o pessoal deles encarregado. Equipe: trinta e dois pesquisadores de dez unidades de pesquisa participam deste projeto CEFET-MG, COPPE-UFRJ, EESC-USP, EFEI-MG, ILTC-Niterói RJ, ICMC-USP, UFF-RJ, UFMG, UFSCar-SP, UFPE Recursos: Agência Financiadora: FINEP/RECOPE - Ref. 0595/96; Vigência: 1998 e 2000; Valor Financiado: R$ 135.500,00
Membro: Solange Oliveira Rezende.

1996

1.   1996-1996. A Integração por Processos em um Ambiente Integrado de Engenharia de Software (Projeto AIGLE)
O projeto AIGLE visa o desenvolvimento e a validação de um ambiente avançado de engenharia de software, tendo em vista fornecer um suporte informático para a assistência, automação e controle da produção de software no domínio de sistemas de informação. Este projeto visa produzir um ambiente de engenharia de software integrado e evolutivo, composto por: (i) um conjunto de ferramentas de software para o suporte ao desenvolvimento integrado de sistemas de informação; (ii) um conjunto de mecanismos para a integração de ferramentas segundo os processos de desenvolvimento de software e sua interação em termos de dados e controle; e (iii) uma plataforma baseada no modelo neutro para a gestão distribuída dos dados produzidos e manipulados durante o ciclo de desenvolvimento.
Membro: Cristina Dutra de Aguiar.
2.   1996-1996. Ambiente Híbrido de Aprendizado de Máquina
Nos últimos anos a pesquisa em aprendizado de máquina tem evoluído rapidamente. Este rápido crescimento tem ocorrido independentemente, em ambas áreas de aprendizado: simbólico e conexionista. Recentemente tem se notado tentativas de aproximação das duas áreas, refletida no desenvolvimento de técnicas híbridas de aprendizado, que exploram e combinam as vantagens de ambas. Este projeto propõe o desenvolvimento de um ambiente híbrido de Aprendizado de Máquina, que visa articular diferentes técnicas de aprendizado, com o objetivo de aquisição de conhecimento e suporte à decisão. Inicialmente, pretende-se que este ambiente integre as abordagens conexionista e simbólica. A construção do ambiente vai ser conduzida, entretetanto, objetivando sua ampliação futura, que acontecerá através da incorporação de outros paradigmas de aprendizado de máquina e de suas articulações.
Membro: Roseli Aparecida Francelin Romero.
3.   1996-1996. IPAC - Integração de Paradgimas Símbolico, Fuzzy e Neural na Aquisição de Conhecimento
A construção de Sistemas Baseados em Conhecimento (SBC) é uma atividade difícil e demorada, onde uma das fases mais problemáticas é a relacionada à elicitação do conhecimento do especialista humano (ou qualquer outra fonte), através de um processo conhecido como Aquisição de Conhecimento (AC). O projeto aqui apresentado teve por objetivo desenvolver um ambiente de AC, composto por módulos voltados a aplicação de métodos sob abordagens diferentes, possivelmente combinados. Pretendeu-se, com o desenvolvimento desse trabalho, obter um ambiente onde possam ser estudadas e comparadas metodologias de AC, inicialmente propostas em contextos diferentes, de acordo com critérios como adequação a conjuntos de dados específicos, facilidade de fusão, balanceamento de vantagens, conveniência em combinar algoritmos e comunicação entre os diferentes módulos.
Membro: Solange Oliveira Rezende.
4.   1996-1996. Sistemas de Informações Geográficas: Estudo de Modelos, Linguagens e Desempenho
Este trabalho visa realizar um estudo exaustivo dos problemas enfrentados por sistemas de informações geográficas, do ponto de vista de modelagem de aplicações e de análise de desempenho. Seus objetivos específicos são: (i) estudar os problemas associados a sistemas de informações geográficas; (ii) estudar modelos de representação do mapeamento urbano básico utilizado por diferentes instituições considerando o aspecto de modelagem geográfica; (iii) analisar mecanismos de integração de esquemas existentes considerando o aspecto georeferenciado das aplicações; (iv) realizar a integração de esquemas georeferenciados através de estudos de caso reais de modelos de mapeamento urbano básico; (v) propor primitivas para a análise de desempenho de aplicações georefenciadas; (vi) utilizar as primitivas propostas para teste de representatividade de linguagens de consulta geográficas; e (v) produzir material didático que sirva como referência para disciplinas e pesquisas futuras.
Membro: Cristina Dutra de Aguiar.

1995

1.   1995-1995. Ambiente Híbrido de Aprendizado de Máquina
O objetivo deste projeto foi o desenvolvimento de um ambiente híbrido para aprendizado de máquina, onde foram abordados: - A investigação das diferenças essenciais entre as abordagens simbólica e conexionista - Utilização dos vários domínios de problema com a finalidade de evidenciar a qual nível é possível/conveniente uma mútua colaboração entre os paradigmas conexionista e simbólico, bem como o desempenho de cada um deles - O levantamento dos pontos fortes e fracos de cada paradigma, em função dos resultados obtidos nos ítens anteriores - A combinação dos resultados dos estudos e análises realizadas para o desenvolvimento do sistema híbrido inteligente para aquisição de conhecimento e suporte à decisão.
Membro: Solange Oliveira Rezende.
Nos últimos anos a pesquisa em aprendizado de máquina tem evoluído rapidamente. Este rápido crescimento tem ocorrido independentemente, em ambas áreas de aprendizado: simbólico e conexionista. Recentemente tem se notado tentativas de aproximação das duas áreas, refletida no desenvolvimento de técnicas híbridas de aprendizado, que exploram e combinam as vantagens de ambas. Este projeto propõe o desenvolvimento de um ambiente híbrido de Aprendizado de Máquina, que visa articular diferentes técnicas de aprendizado, com o objetivo de aquisição de conhecimento e suporte à decisão. Inicialmente, pretende-se que este ambiente integre as abordagens conexionista e simbólica. A construção do ambiente vai ser conduzida, entretetanto, objetivando sua ampliação futura, que acontecerá através da incorporação de outros paradigmas de aprendizado de máquina e de suas articulações.
Membro: Roseli Aparecida Francelin Romero.
2.   1995-1995. CNPq Hyperprop
Subprojeto: Sistema Tutor Hipermídia Distribuída
Membro: Maria da Graca Campos Pimentel.
3.   1995-1995. Mapeamento de Texto em Português em Voz
Este projeto consistiu em desenvolver um modelo de rede neural artificial para conversão texto/voz. Para isto, foi construído um banco de fonemas, que foi utilizado para o treinamento de um modelo de rede neural artificial do tipo MLP - Multi-Layer Perceptron. O software foi desenvolvido utilizando a linguagem C.
Membro: Roseli Aparecida Francelin Romero.

1994

1.   1994-1994. CNPq Projeto SMmD: Sistemas Multimidia Distribuidos
O projeto SMmD estabelece uma hierarquia de módulos, a saber, Módulo de Comunicação, Ambiente MmD (Multimídia Distribuído) e Módulo de Aplicação, que acolhem um conjunto de subprojetos. Esses subprojetos são interelacionados e contribuem para que se realizem as metas e se alcançem os objetivos gerais do projeto. De maneira geral o projeto aborda questões técnicas e científicas relacionadas à manipulação de dados de diversas mídias, principalmente de mídias contínuas, à integração dessas mídias na composição e execução de aplicações multimídia em ambientes distribuídos, ao modelamento de hiperdocumentos e a implementação de engines capazes de interpretá-los e executálos, ao modelamento e a implementação de mecanismos de criação, armazenamento e gerenciamento de objetos multimídia, e à exploração de recursos de tecnologia multimídia no desenvolvimento de aplicações de trabalho cooperativo suportado por computador. O projeto acompanha a tendência de desenvolvimento de sistemas abertos multimídia em ambientes distribuídos, que propicia a construção de aplicações de características diferentes das contempladas pelas técnicas atuais. Assim, aplicações como trabalho cooperativo com suporte computadorizado e sistemas abertos hipermídia, que permitem a composição de documentos a partir de objetos multimídia (compostos por elementos de diversas mídias e armazenados em bases de dados distribuídas), tornam-se viáveis.
Membro: Maria da Graca Campos Pimentel.

1993

1.   1993-1993. Ferramentas para Sistemas Especialistas usando Multimidia
O objetivo principal desse projeto é o desenvolvimento de ferramentas para apoio ao desenvolvimento de sistemas especialistas. O principal foco é a utilização de recursos multimídia na interação com o usuário.
Membro: Solange Oliveira Rezende.
2.   1993-1993. Projeto ReGra: Revisor Gramatical Automático para o Português do Brasil
Construção de um revisor gramatical automático para o português. Desde 2000, disponível no MS-Office.
Membro: Sandra Maria Aluísio.
3.   1993-1993. Sistema Baseado em Conhecimento Metodologia de Desenvolvimento e Aplicações
Este projeto consistiu em utilizar técnicas de aprendizado proposicional e indutivo para construção de sistemas baseado em conhecimento.
Membro: Roseli Aparecida Francelin Romero.

1992

1.   1992-1992. Desenvolvimento de Módulos de Planejamento de Processo Automático Integrados em um Ambiente de Planejamento do Processo
O objetivo principal desse projeto é o desenvolvimento de uma metodologia para criação e aplicação de módulos de planejamento automático, utilizando técnicas de Inteligência Artificial, em uma solução híbrida de planejamento de processo assistida por computador. Os módulos de planejamento automático são sistemas baseados em conhecimento que resolvem problemas de planejamento de processo.
Membro: Solange Oliveira Rezende.
2.   1992-1992. Sistemas Baseados em Conhecimento: Metodologias para Desenvolvimento e Aplicações
O objetivo dessa pesquisa foi investigar novos algoritmos de aprendizado indutivo - incrementais e não incrementais -, bem como algoritmos para a construção automática de features. Serão também foram investigadas diferentes linguagens para a descrição das instâncias e hipóteses induzidas - lógica, árvores de decisão, frames, etc.
Membro: Solange Oliveira Rezende.

*itens sem ano

1.   -.

Membro: Gustavo Enrique de Almeida Prado Alves Batista.
2.   -.

Membro: Gustavo Enrique de Almeida Prado Alves Batista.
3.   -.

Membro: João do Espirito Santo Batista Neto.
4.   -.

Membro: João do Espirito Santo Batista Neto.
5.   -.

Membro: João do Espirito Santo Batista Neto.
6.   -.

Membro: Maria Cristina Ferreira de Oliveira.
7.   -.

Membro: Maria Cristina Ferreira de Oliveira.
8.   -.

Membro: Roseli Aparecida Francelin Romero.
9.   -.

Membro: Solange Oliveira Rezende.
10.   -.

Membro: Solange Oliveira Rezende.


(*) Relatório criado com produções desde 1970 até 2023
Data de processamento: 10/05/2023 08:54:04