Mostrando postagens com marcador informatica. Mostrar todas as postagens
Mostrando postagens com marcador informatica. Mostrar todas as postagens

sexta-feira, 26 de dezembro de 2008

Novo algorítmo permite melhor precisão na localização de pessoas pelo celular

Saudações!

É sempre com grande alegria que recebo as notícias de avanços tecnológicos. Mais alegria ainda quando sei que um brasileiro se fez presente na busca desses avanços.

Acabam de fazer cair para cerca de 5 metros, a margem de erro na localização de um aparelho celular, superando os sistemas dos Estados Unidos que têm uma margem de erro de 50 metros.

É um importante passo e podemos vislumbrar seu uso em muitas situações: em emergências médicas, na localização de frotas ou mesmo para a localização de criaças e idosos.

Claudeir Hygino

Fonte: http://www4.usp.br/index.php/tecnologia/15964-metodo-confere-maior-precisao-para-localizacao-de-usuarios-por-sistema-celular

Luiza Caires, especial para a Agência USP

Um estudo realizado na Escola Politécnica (Poli) da USP desenvolveu um novo algoritmo que confere excelente precisão à localização de usuários por sistema celular. O sistema de localização já é usado nos Estados Unidos e na Europa em situações de emergência e também para prestação de serviços personalizados pelas operadoras de telefonia, mas a margem de erro pode atingir um raio maior do que 50 metros.

Para a localização, costuma-se usar três estações fixas (torres) que enviam o sinal. Pelo tempo de propagação até chegar ao usuário, calcula-se a distância e, a partir da intersecção entre as três circunferências, obtém-se a sua localização. Uma localização 100% exata só poderia ser feita em condições ideais, em que não houvesse barreiras físicas para propagação das ondas. Entretanto, obstáculos como montanhas, prédios e construções refletem as ondas, ocasionando um espalhamento do sinal e ampliando assim seu tempo de propagação. Esse efeito influi no resultado dos cálculos da distância.

“O que fiz foi propor uma nova solução das equações, utilizando um algoritmo que permite obter uma estimativa de localização mais exata”, explica o engenheiro eletricista Sergio Forcellini, autor da pesquisa. Além de reduzir o raio localização para valores menores do que 50 metros em 70% das medidas em ambientes urbanos, o mesmo algoritmo pode ser utilizado para rastreamento em qualquer tipo de rede celular, seja CDMA, TDMA ou GSM.

Para chegar a este resultado, Forcellini realizou simulações em uma ferramenta computacional baseada num modelo de propagação chamado COST-259. Além disso, foi adotada a “Filtragem de Kalman”, método de correção já existente que também minimiza o erro médio na localização. No COST-259 foram estimados os fatores de correção utilizados na equação de localização tanto para ambientes urbanos típicos quanto rurais, e também para usuários parados ou em movimento dentro de um automóvel.

Serviços diversos A localização de usuários por celular é extremamente útil em situações de emergência médica e policial. Além disso, as operadoras podem utilizar este sistema para oferecer serviços personalizados aos seus clientes. É possível, por exemplo, identificar a posição geográfica de um usuário para indicar estabelecimentos comerciais próximos como bares, cinemas e restaurantes, ou mostrar a sua própria sua localização na cidade. O sistema também permite revelar num aparelho a posição de outro celular, caso os dois autorizem – o que pode ser bastante útil para pais preocupados que desejem saber onde estão os filhos.

Outra utilidade é o rastreamento de frotas, que hoje é feito pelo sistema GPS (Global Positioning System). “Por enquanto, o sistema GPS é mais vantajoso, por ser baseado em satélites, permitindo uma cobertura total – sem as áreas de sombra da rede celular. Mas com a ampliação da rede e do número de torres, futuramente esta pode ser uma nova utilidade para a localização pelo sistema celular”, sugere o pesquisador.

sábado, 6 de dezembro de 2008

De www para wwg - A World Wide Grid vem aí

Um novo tempo, uma nova web, com capacidades inimagináveis de armazenamento e troca de informações. Capacidades inimagináveis de processamento de dados, hoje somente conseguidas nos supercomputadores, sendo acessadas da tela do seu computador. Os entusiastas da astronomia e da física agradecerão.

Fonte: http://www.geclipse.org/

Boa leitura.

Claudeir Hygino

Lançada a pedra fundamental do World Wide Grid
Redação do Site Inovação Tecnológica 03/12/2008

No começo foi a teia - mais conhecida como Web. Agora é a vez da grande rede, que deverá ser conhecida como Grid. Acaba de ser lançada a pedra fundamental do World Wide Grid, ou WWG, para os íntimos.

Usar a internet para acessar o poder de processamento e de armazenamento que for necessário, quando ele se fizer necessário, ainda é um sonho e está há anos de se tornar uma realidade para o usuário comum.

Mas, como aconteceu com a internet em seus primórdios, as instituições de pesquisas já começam a testar os seus princípios e a interligar os recursos de seus supercomputadores para criar um poder de processamento que há alguns anos era visto como coisa de ficção científica.

Dificuldade de uso dos grids

Uma série de universidades européias está se preparando para interconectar e compartilhar seus grids, criando uma rede com uma capacidade de processamento e armazenamento sem precedentes.

O grande desafio atual, além da criação de padrões para uniformização dos equipamentos e protocolos, é romper com a dificuldade de uso dos grids. Ninguém nega que esses aglomerados de computadores sejam difíceis de utilizar, sendo adequados apenas para especialistas que, além de dominarem suas próprias áreas de pesquisa, também devem manjar muito de computação.

Navegador do World Wide Grid

Esse desafio está sendo enfrentado pelo projeto g-Eclipse, que pretende criar uma interface gráfica que coloque os recursos do World Wide Grid a alguns cliques de distância de um doutorando comum.

"Em vez de um algo que leva meses para se aprender, nós estamos desenvolvendo uma interface gráfica de usuário (GUI) que poderá ser operada por qualquer um com um conhecimento básico de informática," diz Mathias Stümpert, coordenador do g-Eclipse.

"Você pode pensar no g-Eclipse como um browser para o que se tornará o World Wide Grid," afirma Stümpert. Esse navegador de uma nova era da informática procurará e apresentará ao usuário os recursos disponíveis, permitindo o seu uso.

O projeto é baseado no sistema de código aberto Eclipse. "Os projetos no Eclipse são realmente transparentes e abertos, até mais do que o Linux, e o código-fonte pode ser simplesmente reutilizado entre os programas Eclipse," explica Stümpert.

Grids e Nuvens

O sistema do nascente World Wide Grid já está pronto para se juntar às "nuvens de computação" instaladas por terceiros. Várias empresas já se interessaram na criação de nuvens, vendendo recursos de computação no momento em que seus negócios não os estiverem utilizando. Isto é bastante comum, na medida que as empresas dimensionam suas redes para darem conta do recado em seus momentos de pico de negócios.
Embora outras interfaces gráficas já tenham sido criadas com objetivos semelhantes, o g-Eclipse é atualmente o único navegador para o World Wide Grid que permite a transferência de dados entre o "mundo real" dos grids e o "mundo virtual" das nuvens de computação.

domingo, 9 de novembro de 2008

Nanoimageamento em Telas LCD...

Saudações!!!
Muito legal esses avanços de tecnologia... Se hoje jogamos games que nos possibilitam grande resolução de tela, com elevado grau de definição de imagens, imaginem com a inclusão do nanoimageamento... Espero que gostem da leitura... Grande Abraço em Todos...
Claudeir Hygino...

Telas de LCD avançam com processo 3-D de nanoimageamento
Redação do Site Inovação Tecnológica
07/11/2008

Pesquisadores desenvolveram uma técnica óptica de geração de imagens 3D em cristais líquidos com uma resolução volumétrica mil vezes menor do que as tecnologias utilizadas nas telas planas atuais.

Geração de imagens em LCD

Na prática, a indústria poderá agora contar com uma tecnologia que, quando escalada para o ambiente industrial, permitirá a construção de telas LCD com resoluções muito superiores à atual, criando pixels menores e mais precisos, graças a um melhor entendimento do seu funcionamento em escala molecular.

Em termos científicos, a pesquisa trouxe explicações detalhadas dos fenômenos em nível molecular que acontecem na geração das imagens pelos chamados fluidos anisotrópicos - como o cristal líquido - que até hoje eram largamente baseadas em inferências a partir de experimentos macroscópicos.

Cristais líquidos

As moléculas desses fluidos anisotrópicos - cristais líquidos, polímeros ordenados, geles e emulsões - podem ser orientados por campos elétricos ou magnéticos para controlar as propriedades de polarização da luz. É assim que a imagem é gerada nas telas LCD. Só que, até agora, o conhecimento desse funcionamento em nível molecular era ainda muito limitado.

A equipe do Dr. Charles Rosenblatt, da Universidade Case Western Reserve, nos Estados Unidos, descobriu como manipular as estruturas de coleta de imagens do interior do cristal líquido com precisão de décimos de nanômetros, o que gera uma imagem de sua estrutura molecular com nuances e detalhes muito mais precisos.

A técnica atual para estudo da geração de imagem em cristais líquidos é chamada de microscopia óptica de rastreamento de campo. Os pesquisadores melhoraram esta técnica coletando a luz em diversas alturas no interior do substrato, criando um sistema que eles batizaram de nanotomografia óptica polarizada, um sistema para mapeamento tridimensional do fluido anisotrópico.

domingo, 2 de novembro de 2008

Computador Entendendo as Emoções Humanas

Navegadores GPS vão entender como você se sente
Redação do Site Inovação Tecnológica
31/10/2008

Os equipamentos de GPS nos carros não são mais nenhuma grande novidade. Mesmo que a maioria dos motoristas ainda não possa contar com a sua funcionalidade, os engenheiros já estão se preparando para dar o próximo passo - eles querem que as orientações de rotas de direção dadas pelos aparelhos de localização por satélite levem em conta o humor e o estresse do motorista.

Computadores que reconhecem emoções

O sistema, que está sendo desenvolvido por Trung Bui, da Universidade de Twente, na Holanda, é capaz de reconhecer as emoções do motorista analisando a sua voz. Uma vez detectada a emoção, o computador altera seu comportamento e a forma como as instruções do GPS são passadas, para ajudar o motorista de forma mais efetiva.

O grande avanço do sistema construído por Bui é justamente tornar um computador capaz de identificar uma emoção humana. Além de aparelhos de GPS, a pesquisa terá grande utilidade em todos os sistemas em que haja uma interação entre computadores e humanos, como em quiosques de informações e em robôs, por exemplo.

Identificando emoções

Quando o assunto é emoção, os humanos são capazes de combinar vários tipos de informações para chegar a uma conclusão - o tom de voz, a expressão facial e até a escolha das palavras são alguns dos elementos levados em conta para identificar as emoções de uma pessoa com a qual estamos interagindo.

Programar essa capacidade em um computador é uma tarefa cheia de meandros. Por exemplo, um tom de voz mais elevado pode indicar tanto raiva quanto entusiasmo.

Markov e redes de decisão

Bui utilizou duas técnicas em conjunto para enfrentar esse desafio. A primeira é chamada POMDP (Partially Observable Markov Decision Process), processo de decisão parcialmente observável de Markov, uma técnica matemática desenvolvida nos anos 1960. Esta técnica permite a integração das emoções do usuário em um sistema de diálogo, graças à capacidade da POMDP em lidar com incertezas.

A técnica de Markov é útil para problemas simples, mas exige pesados cálculos quando o diálogo é mais complexo. Nestes casos, Bui optou por utilizar as redes dinâmicas de decisão (DDN - Dynamic Decision Network). Os diálogos são divididos em dois níveis, sendo cada um enviado para uma das abordagens de cálculo de acordo com sua complexidade. A distribuição dos diálogos entre os dois níveis é feita verificando-se a disponibilidade de poder de processamento.

O sistema foi testado em veículos que atendem situações de emergência. Dois módulos de avaliação do estresse do usuário enviam seus resultados para o sistema de navegação. Quando é detectado que o estresse está se elevando, o que torna o atendente mais propenso a cometer erros, o sistema passa a exigir confirmações de suas instruções mais freqüentemente.

domingo, 19 de outubro de 2008

Chips capazes de corrigir falhas...

"Sistema imunológico" artificial vai criar chips tolerantes a falhas
Redação do Site Inovação Tecnológica
17/10/2008

Pesquisadores ingleses estão se inspirando no funcionamento do sistema imunológico humano para construir chips capazes de se autodiagnosticar e corrigir suas próprias falhas sem a necessidade de qualquer intervenção externa.

Batizado de Sabre - Self-healing cellular Architectures for Biologically-inspired highly Reliable Electronic systems: Arquiteturas celulares autocurativas para sistemas eletrônicos de alta confiabilidade biologicamente inspirados - o projeto está sendo conduzido por especialistas de quatro universidades.

Sistemas eletrônicos de alta confiabilidade

Apesar da alta confiabilidade alcançada pela indústria eletrônica atual, com um número mínimo de relatos de falhas de sistemas ocasionadas por defeitos no hardware, a disseminação dos sistemas eletrônicos está exigindo cuidados adicionais com equipamentos que lidam diretamente com a vida humana, entre os quais os sistemas embarcados em aviões, carros e prédios.

Nestes casos, uma falha quase nunca dará tempo para que os engenheiros possam diagnosticá-la e corrigi-la antes que ela cause danos muito sérios. O ideal, nessas condições, é que o próprio hardware detecte a falha e tome medidas para que o equipamento funcione adequadamente mesmo sem a parte que apresentou defeito.

Sistema imunológico artificial

Estudando como o sistema imunológico humano funciona, os pesquisadores estão construindo uma estrutura de "células" capazes de funcionar de maneira integrada e coordenada para defender a integridade do sistema e garantir que os programas possam rodar sem falhas. Eles estão criando um verdadeiro sistema imunológico artificial inteiramente eletrônico.

Sistemas tolerantes a falhas

Já existem sistemas tolerantes a falhas no mercado, mas todos funcionam pela duplicação de todo o sistema ou de uma parte dele. Quando ocorre uma falha, o sistema muda para o backup ou passa a rodar de forma simplificada em um subsistema menor.

"Entretanto, os organismos vivos altamente complexos, como o corpo humano, são capazes de lidar com defeitos em um nível muito mais baixo, no nível das células, defendendo todo o sistema por meio do reparo das células, mantendo desta forma a funcionalidade normal," explica o Dr. Tony Pipe, um dos coordenadores da pesquisa.

"O corpo humano é tanto confiável quanto complexo. É esta capacidade que nós queremos replicar nos sistemas eletrônicos. Estudando a estrutura multicelular dos organismos vivos e seus sistemas imunológicos protetores nós esperamos ser capazes de projetar arquiteturas 'tipo natural' tolerantes a falhas para sistema eletrônicos. Esta pesquisa tem o potencial para influenciar a forma como os sistemas eletrônicos complexos serão projetados no futuro, criando uma nova geração de sistemas eletrônicos que serão tolerantes a falhas e autocurativos," conclui o pesquisador.

Com previsão para durar três anos, o projeto Sabre pretende criar uma nova plataforma que poderá ser utilizada em aviões, sistemas de frenagens antitravamento de veículos, robôs espaciais e satélites artificiais, assim como no controle de processos industriais e nos sistemas de desligamento automático de redes de computadores.

sábado, 11 de outubro de 2008

Novidade nas Buscas por Fotos...

Algumas poucas palavras valem mais do que uma imagem
Redação do Site Inovação Tecnológica
06/10/2008 O ditado afirma que uma imagem pode valer mais do que mil palavras. Mas isso só vale para nós, humanos.

Quando se trata de computadores e mecanismos de buscas, uma única palavra pode fazer a diferença entre encontrar a imagem certa e deixar a riqueza de informações concentradas em uma foto ou desenho perdida no meio de uma infinidade de outras imagens menos relevantes.

Extraindo informações textuais de imagens

Dezenas de tentativas já foram feitas para se extrair informações textuais das informações visuais contidas em imagens. As mais eficientes, contudo, ainda se baseiam nos textos inseridos pelos próprios humanos como título ou como descrição dessas imagens.

Agora, pesquisadores europeus acreditam ter dado um passo importante na automatização dessa tarefa, assim como rumo à possibilidade de se recuperar informações de imagens para as quais títulos e descrições não foram corretamente atribuídos.

Camada de informação

A solução consiste na criação de uma camada de informação sobreposta aos arquivos digitais das imagens. Essa camada informacional extra aproveitará os dados textuais inseridos pelos usuários, mas também será capaz de gerar dados adicionais automaticamente.

Como se trata de uma área extremamente complexa, os pesquisadores do projeto aceMedia reaproveitaram diversas técnicas já desenvolvidas. É o caso da identificação de palavras-chaves visuais de baixo nível - como áreas de cores consistentes que podem ser interpretadas como céu, mar, areia ou neve.

A mesma técnica permite a identificação de contornos, textura e formato.

Palavras-chaves e domínios ontológicos

Combinando as palavras-chaves com conjuntos de regras contextuais mantidas em domínios ontológicos - tais como o fato de que areia e neve geralmente não aparecem na mesma imagem ou que áreas azuis no topo de uma imagem têm grande probabilidade de ser o céu - os pesquisadores conseguiram transformar os dados digitais das imagens em uma rica fonte de informação.

Os dados das palavras-chave de baixo nível também são combinados com resultados de detectores específicos, como programas capazes de localizar rostos em uma foto.

Regras pessoais

Os usuários também poderão adicionar suas próprias preferências à camada de informação, definindo regras particulares para atribuição de palavras-chave e criar um sistema de arquivo pessoal de imagens que permita sua recuperação posterior.

A plataforma desenvolvida pelos pesquisadores foi batizada de ACE (Autonomous Content Entity). A camada ACE define uma API que suporta conexões em rede, gerenciamento de bases de dados, codificação escalável, pré-processamento de conteúdo, visualização do conteúdo, análise de conteúdo baseada em conhecimento, assim como módulos de modelagem e análise contextual

domingo, 28 de setembro de 2008

Algoritmo dá a computadores uma capacidade quase humana

Algoritmo dá a computadores uma capacidade quase humana
Redação do Site Inovação Tecnológica
25/09/2008
Novo algoritmo consegue encontrar padrões em dados brutos, identificando a estrutura - ordens lineares, anéis ou clusters - que melhor descreve os dados.

Nós temos uma capacidade inata, e uma tendência quase inconsciente em utilizar essa capacidade, de encontrar padrões em grandes volumes de dados e informações. Foi assim que nossos antepassados traçaram as constelações na infinidade de estrelas que eles observavam no céu, e é assim que nós localizamos um grupo de amigos no meio de um salão lotado.

Capacidade de ordenação

Seria muito útil se conseguíssemos replicar essa capacidade nos computadores - a Era da Informação está gerando uma quantidade de dados maior do que tudo o que a humanidade gerou ao longo de milênios. Sabemos que essa montanha de dados contém informações valiosas, mas só conseguiremos tirar proveito delas se os próprios computadores forem capazes de capturá-las para nós.

Para que um computador ordene um conjunto de dados, nós devemos encontrar a ordem subjacente a esses dados e então dizer ao computador como ordená-los, por meio de um programa.

Encontrando padrões em dados brutos

Agora, pesquisadores do MIT elaboraram um algoritmo que é capaz de encontrar um padrão nos dados brutos, e então ordená-los segundo esse padrão. "Em vez de procurar por um tipo particular de estrutura, nós criamos um algoritmo mais amplo que é capaz de testar todas essas estruturas e pesá-las umas contra as outras," explica Joshua Tenenbaum, coordenador da pesquisa.

O algoritmo consegue entender vários tipos de estruturas de dados, como árvores, ordens lineares, anéis, hierarquias dominantes, clusters etc. Ele analisa os dados brutos até encontrar a estrutura que melhor os descreve e então ordena os dados seguindo essa estrutura.

Os humanos fazem isso o tempo todo, na vida diária, freqüentemente de forma inconsciente. Várias descobertas-chave na história da ciência também consistiram na localização desses padrões, como na elaboração da Tabela Periódica ou na criação do sistema de classificação das espécies utilizada pela biologia.

sábado, 13 de setembro de 2008



Brasileiros vão ajudar a ligar a Máquina do Começo do Mundo
Redação do Site Inovação Tecnológica
10/09/2008

Embora alguns físicos dissidentes estejam afirmando que o LHC (Large Hadron Collider) será a máquina do fim do mundo, podendo criar buracos negros que destruirão a Terra, a maioria da comunidade científica quer mesmo é descobrir os segredos do começo do mundo (veja Buracos negros microscópicos não vão destruir a Terra, garantem físicos).

Maior experimento científico da história

Hoje, dia 10 de Setembro, começarão os primeiros testes de funcionamento daquele que já é considerado o maior experimento científico da história. Em mais ou menos um mês, ele deverá estar em funcionamento total.

Será então o momento da verdade: pela primeira vez na história, os cientistas poderão observar dois prótons chocando-se violentamente um contra o outro, depois de acelerar ao longo de um anel de 27 quilômetros de perímetro, situado a mais de 100 metros de profundidade ao longo da fronteira entre a Suíça e a França.

A data para a inauguração oficial do acelerador está marcada para 21 de outubro, com a presença de presidentes e ministros de Estado da Europa e de outros países que ajudaram a construir o laboratório e que participarão das experiências.

A construção do LHC durou 14 anos, contando com a colaboração e o compartilhamento do conhecimento de 6.000 cientistas de 181 institutos de pesquisas de diversos países. O custo chegou a US$8 bilhões.

Do infinitamente pequeno ao infinitamente grande

O principal objetivo dos experimentos é investigar o infinitamente pequeno, mas também tirar conclusões sobre o infinitamente grande a partir do estudo do choque das partículas subatômicas.

"Embora ainda estejamos muito longe da suposta grande explosão que teria dado origem ao Universo que conhecemos, estamos dando mais um passo importante no caminho de aproximação de algumas das condições de então, ao realizarmos experiências nas energias do LHC", afirma o físico brasileiro Alberto Santoro, que participa do experimento.

Quatro experimentos

"O Brasil não está fora desta nova era da ciência", declarou Alberto Santoro, que é coordenador do grupo da UERJ no Compact Muon Solenoid LHC/CERN. Os físicos brasileiros, com apoio do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq/MCT), estão envolvidos nos quatro experimentos do LHC desde a década de 1990.

O LHC é um acelerador, mas cujas peças principais são justamente os sensores que detectam os resultados dos impactos das partículas aceleradas. São quatro aparelhos, reunindo a mais avançada tecnologia hoje disponível: ALICE (A Large Ion Collider Experiment), LHCb (LHC Beauty), ATLAS (A Toroidal LHC Apparatus), e CMS (Compact Muon Solenoid).

Participação brasileira

"O CNPq apóia a participação de pesquisadores brasileiros nos experimentos do CERN entendendo que eles contribuem para o avanço da ciência e para a formação de cientistas de alto nível. Por exemplo, de 1999 a 2004, a agência pagou 100 mil francos suíços por ano para a construção do equipamento referente ao experimento ATLAS. Foram ao todo R$ 1,2 milhão. Além disso, temos apoiado os grupos de pesquisa que participam dessa colaboração oferecendo bolsas para Doutorado Sanduíche com duração ampliada para dois anos", disse o diretor de Programas Horizontais e Instrumentais do CNPq, José Roberto Drugowich.

A participação dos brasileiros envolve pesquisadores, professores, estudantes de universidades e institutos de pesquisa do Brasil. Atualmente, o grupo de física nuclear da USP participa do experimento ALICE, os físicos e engenheiros do CBPF e UFRJ, do LHCb, os grupos da UFRJ e COPPE, do CMS, e os grupos do CBPF, UERJ, UNESP, UFRGS e CEFET, do ATLAS.