sexta-feira, 26 de dezembro de 2008

Novo algorítmo permite melhor precisão na localização de pessoas pelo celular

Saudações!

É sempre com grande alegria que recebo as notícias de avanços tecnológicos. Mais alegria ainda quando sei que um brasileiro se fez presente na busca desses avanços.

Acabam de fazer cair para cerca de 5 metros, a margem de erro na localização de um aparelho celular, superando os sistemas dos Estados Unidos que têm uma margem de erro de 50 metros.

É um importante passo e podemos vislumbrar seu uso em muitas situações: em emergências médicas, na localização de frotas ou mesmo para a localização de criaças e idosos.

Claudeir Hygino

Fonte: http://www4.usp.br/index.php/tecnologia/15964-metodo-confere-maior-precisao-para-localizacao-de-usuarios-por-sistema-celular

Luiza Caires, especial para a Agência USP

Um estudo realizado na Escola Politécnica (Poli) da USP desenvolveu um novo algoritmo que confere excelente precisão à localização de usuários por sistema celular. O sistema de localização já é usado nos Estados Unidos e na Europa em situações de emergência e também para prestação de serviços personalizados pelas operadoras de telefonia, mas a margem de erro pode atingir um raio maior do que 50 metros.

Para a localização, costuma-se usar três estações fixas (torres) que enviam o sinal. Pelo tempo de propagação até chegar ao usuário, calcula-se a distância e, a partir da intersecção entre as três circunferências, obtém-se a sua localização. Uma localização 100% exata só poderia ser feita em condições ideais, em que não houvesse barreiras físicas para propagação das ondas. Entretanto, obstáculos como montanhas, prédios e construções refletem as ondas, ocasionando um espalhamento do sinal e ampliando assim seu tempo de propagação. Esse efeito influi no resultado dos cálculos da distância.

“O que fiz foi propor uma nova solução das equações, utilizando um algoritmo que permite obter uma estimativa de localização mais exata”, explica o engenheiro eletricista Sergio Forcellini, autor da pesquisa. Além de reduzir o raio localização para valores menores do que 50 metros em 70% das medidas em ambientes urbanos, o mesmo algoritmo pode ser utilizado para rastreamento em qualquer tipo de rede celular, seja CDMA, TDMA ou GSM.

Para chegar a este resultado, Forcellini realizou simulações em uma ferramenta computacional baseada num modelo de propagação chamado COST-259. Além disso, foi adotada a “Filtragem de Kalman”, método de correção já existente que também minimiza o erro médio na localização. No COST-259 foram estimados os fatores de correção utilizados na equação de localização tanto para ambientes urbanos típicos quanto rurais, e também para usuários parados ou em movimento dentro de um automóvel.

Serviços diversos A localização de usuários por celular é extremamente útil em situações de emergência médica e policial. Além disso, as operadoras podem utilizar este sistema para oferecer serviços personalizados aos seus clientes. É possível, por exemplo, identificar a posição geográfica de um usuário para indicar estabelecimentos comerciais próximos como bares, cinemas e restaurantes, ou mostrar a sua própria sua localização na cidade. O sistema também permite revelar num aparelho a posição de outro celular, caso os dois autorizem – o que pode ser bastante útil para pais preocupados que desejem saber onde estão os filhos.

Outra utilidade é o rastreamento de frotas, que hoje é feito pelo sistema GPS (Global Positioning System). “Por enquanto, o sistema GPS é mais vantajoso, por ser baseado em satélites, permitindo uma cobertura total – sem as áreas de sombra da rede celular. Mas com a ampliação da rede e do número de torres, futuramente esta pode ser uma nova utilidade para a localização pelo sistema celular”, sugere o pesquisador.

domingo, 14 de dezembro de 2008

Transistores Supercondutores no PC do Futuro

Já pararam prá imaginar em um processador que não emita calor?

É, pois o motivo da ventoinha e cooler sobre o processador é nada mais do que diminuir o aquecimento, e sem eles o processador esquentaria até torrar. Fato é que os minúsculos transístores no interior do processador, hoje já na casa dos 45 nanômetros, não possuem uma estrutura que possibilite a perfeita passagem da corrente, havendo perdas e consequentemente calor, o que também diminui sencivelmente as frenquências de clock tornando o pc lento.
Muitos entusiastas têm conseguido aumentar as frequências fazendo uso do nitrogênio, por exemplo, baixando a temperatura a próximo de zero grau e dinamizando o desempenho do micro.

Pois cientistas têm trabalhado e conseguiram um transistor que não oferece obstáculo a passagem da corrente. Ainda está no início, utilizando determinado tipo de elemento químico cujas características ainda se faz necessário o ambiente com temperatura em torno de zero grau, porém, já não gera calor.

O futuro se mostra promissor no que tange a processadores e hardwares que fazem uso de transístores, e quem deve se preocupar são as empresas que ganham a vida somente de diminuir a temperatura dos processadores pois grandes investidores já olham com bons olhos para o transistor frio.

Fonte: http://www.newscientist.com/article/mg20026856.600-first-superconducting-transistor-promises-pc-revolution.html

Claudeir Hygino

Internet chega aos trens...

Saudações!

Não ainda não é por aqui, infelizmente, ainda não é agora que poderemos dar aquele toque final no trabalho da faculdade utilizando o notebook durante a viagem de metrô ou trem; ou mesmo ficar ligado com as notícias, família e amigos pela internet durante nossas viagens. Contudo as coisas estão mudando e os profissionais da Universidade de York estão desenvolvendo uma antena que fica alojada no teto dos trens e metrôs conectadas na internet via satélite.

Há dois tipos de antenas: uma primeira parecida com aquelas de recepção de TV por assinatura via satélite, e uma em formato de domo que melhor se adequa ao formato dos vagões. A primeira encontrou limitações já que se conecta a um único satélite e por seu formato que acaba por tocar o teto de alguns túneis ao longo do percurso. Já a segunda além de se acoplar muito bem ao desenho dos vagões, pode se conectar a mais de um satélite, o que dá mais confiabilidade no tráfego de informações.


Claudeir Hygino


sábado, 6 de dezembro de 2008

De www para wwg - A World Wide Grid vem aí

Um novo tempo, uma nova web, com capacidades inimagináveis de armazenamento e troca de informações. Capacidades inimagináveis de processamento de dados, hoje somente conseguidas nos supercomputadores, sendo acessadas da tela do seu computador. Os entusiastas da astronomia e da física agradecerão.

Fonte: http://www.geclipse.org/

Boa leitura.

Claudeir Hygino

Lançada a pedra fundamental do World Wide Grid
Redação do Site Inovação Tecnológica 03/12/2008

No começo foi a teia - mais conhecida como Web. Agora é a vez da grande rede, que deverá ser conhecida como Grid. Acaba de ser lançada a pedra fundamental do World Wide Grid, ou WWG, para os íntimos.

Usar a internet para acessar o poder de processamento e de armazenamento que for necessário, quando ele se fizer necessário, ainda é um sonho e está há anos de se tornar uma realidade para o usuário comum.

Mas, como aconteceu com a internet em seus primórdios, as instituições de pesquisas já começam a testar os seus princípios e a interligar os recursos de seus supercomputadores para criar um poder de processamento que há alguns anos era visto como coisa de ficção científica.

Dificuldade de uso dos grids

Uma série de universidades européias está se preparando para interconectar e compartilhar seus grids, criando uma rede com uma capacidade de processamento e armazenamento sem precedentes.

O grande desafio atual, além da criação de padrões para uniformização dos equipamentos e protocolos, é romper com a dificuldade de uso dos grids. Ninguém nega que esses aglomerados de computadores sejam difíceis de utilizar, sendo adequados apenas para especialistas que, além de dominarem suas próprias áreas de pesquisa, também devem manjar muito de computação.

Navegador do World Wide Grid

Esse desafio está sendo enfrentado pelo projeto g-Eclipse, que pretende criar uma interface gráfica que coloque os recursos do World Wide Grid a alguns cliques de distância de um doutorando comum.

"Em vez de um algo que leva meses para se aprender, nós estamos desenvolvendo uma interface gráfica de usuário (GUI) que poderá ser operada por qualquer um com um conhecimento básico de informática," diz Mathias Stümpert, coordenador do g-Eclipse.

"Você pode pensar no g-Eclipse como um browser para o que se tornará o World Wide Grid," afirma Stümpert. Esse navegador de uma nova era da informática procurará e apresentará ao usuário os recursos disponíveis, permitindo o seu uso.

O projeto é baseado no sistema de código aberto Eclipse. "Os projetos no Eclipse são realmente transparentes e abertos, até mais do que o Linux, e o código-fonte pode ser simplesmente reutilizado entre os programas Eclipse," explica Stümpert.

Grids e Nuvens

O sistema do nascente World Wide Grid já está pronto para se juntar às "nuvens de computação" instaladas por terceiros. Várias empresas já se interessaram na criação de nuvens, vendendo recursos de computação no momento em que seus negócios não os estiverem utilizando. Isto é bastante comum, na medida que as empresas dimensionam suas redes para darem conta do recado em seus momentos de pico de negócios.
Embora outras interfaces gráficas já tenham sido criadas com objetivos semelhantes, o g-Eclipse é atualmente o único navegador para o World Wide Grid que permite a transferência de dados entre o "mundo real" dos grids e o "mundo virtual" das nuvens de computação.

quarta-feira, 3 de dezembro de 2008

Cinco notas da IBM sobre o futuro próximo

Saudações!

Observem essas notas da IBM que vão completar um ano. O quanto de visão de futuro possui as pessoas que mantêm a tecnologia em suas mãos.

Há um ano quem tivesse lido esse artigo pensaria com certeza se tratar de certo sensacionalismo por parte da IBM, tendo em vista a disparada que as concorrentes deram em sua frente nos últimos anos; sem contar o fato de que nós temos sim uma visão do futuro e enquadramento da tecnogia para as próximas décadas, mas não temos a idéia da velocidade na qual a tecnologia vem ao nosso encontro.

Porém, o fato é que os avanços têm se apresentado de forma cada vez mais rápida e surpreendente. Principalmente na medicina, no diagnóstico de doenças os avanços vão desde câmeras que passeiam por dentro do corpo humano ao imageamento em 3d, que tem deixado para o passado a ultrasonografia, que tanto nos emocionava, para se conhecer o sexo dos bebês. Já existe inclusive, em testes, um substituto em escala nanotecnológica para o sangue humano nos casos de transfusões de emergência.

E o que falar dos celulares? Antes tínhamos bem definidamente, mp3 player, celular, notebook, câmera digital, e hoje todos esses se fundem em um só. Monitores touch? Função Touch Smart? Espere prá ver então o que os sistemas operacionais nos reservam já para o ano que vem - Comandos de voz substituindo os kits multimídia.

Mas vamos esperar, muitas coisas estão a caminho. Só não podemos esperar descansadamente, estejamos de pé pois o futuro é agora.

Fonte: http://www-03.ibm.com/press/br/pt/pressrelease/22937.wss

Claudeir Hygino

São Paulo - 13 dez 2007: Nova lista “IBM Five in Five” aponta inovações que poderão ditar nossas vidas nos próximos cinco anos

A IBM divulgou a segunda lista "IBM Five in Five", que reúne as inovações que se implementadas poderão transformar o modo como trabalhamos, vivemos e nos divertimos nos próximos cinco anos. Na pesquisa, baseada em tendências sociais e de mercado, também são contempladas as tecnologias emergentes dos Laboratórios da IBM do mundo inteiro, que poderão tornar estas inovações tecnológicas possíveis.

Nos próximos cinco anos, nossas vidas poderão mudar da seguinte forma:

Será fácil ser "ecológico" e economizar dinheiro com isso: Tecnologias inteligentes de energia facilitarão o gerenciamento de seu "saldo pessoal de carbono". Máquinas de lavar, equipamentos de ar-condicionado, luzes de casa e outros aparelhos estarão conectados diretamente a uma "rede elétrica inteligente". Dessa forma, será possível ligar ou desligar aparelhos através do celular ou qualquer navegador Web. Além de alertar você sobre aparelhos ligados, a tecnologia também viabilizará relatórios de consumo de eletricidade para que você monitore quanto está gastando e desperdiçando, da mesma forma que é possível conferir quantos minutos você usa do seu celular. Redes inteligentes permitirão às concessionárias de energia oferecer ao consumidor opções de fontes limpas de energia, como a solar e a eólica, para abastecer sua casa. Inovações tecnológicas nestas fontes alternativas também trarão eficiência de custo para as concessionárias.

O modo como você dirige será completamente diferente: Nos próximos cinco anos, uma onda de conectividade entre carros e estradas mudará completamente a forma como você dirige, aumentando a segurança e reduzindo os congestionamentos. A tecnologia fará com que o tráfego flua melhor, reduzindo a poluição, o número de acidentes e tornando os deslocamentos mais fáceis, com menos estresse. As cidades em que vivemos encontrarão a solução para os congestionamentos nos sistemas inteligentes de tráfego, que farão ajustes em tempo real nos sinais de trânsito, desviando o tráfego para rotas alternativas. Seu carro terá tecnologias de auxílio à direção que possibilitarão a comunicação entre os automóveis - com sensores ao longo da estrada - permitindo que eles funcionem como se tivessem "reflexos", tomando atitudes preventivas sob condições perigosas.

"Você é o que você come", então você saberá o que você come: Todos já ouvimos a expressão "você é o que você come", mas como os alimentos cruzam fronteiras entre os mais diversos países, a necessidade de saber exatamente o que se come nunca foi tão grande. Nos próximos cinco anos, novas tecnologias possibilitarão que você saiba exatamente que tipo de alimento está comprando e consumindo. Softwares e sistemas de comunicação sem fio avançados lhe darão acesso a informações mais detalhadas sobre a comida que está comprando e consumindo. Desde o clima e o solo em que o alimento foi cultivado, até os pesticidas, a poluição a que ele foi exposto, a energia consumida para criar o produto, e a temperatura e a qualidade do ar dos contêineres de transporte em que ele viajou, até chegar à sua mesa.

Seu telefone celular será sua carteira, vendedor de ingressos, recepcionista, banco, companheiro de compras, entre outros: A nova tecnologia permitirá que você tire uma foto de alguém vestindo uma roupa que gostou. Automaticamente o celular procurará na Web o designer e a loja mais próxima, para que você possa comprá-la. Você também poderá ver no seu celular como esta roupa ficaria no seu avatar - sua representação em 3D - e convidar seus amigos, de diversos lugares, para conferir online. Seu celular também guiará você ao visitar uma cidade. Ao ligá-lo, ele mostrará automaticamente as opções de entretenimento, atividades e restaurantes compatíveis com suas preferências, e ainda poderá fazer reservas e comprar entradas - como um assistente pessoal.

Os médicos terão "supersentidos" para melhor diagnosticar e tratar você: Nos próximos cinco anos, médicos poderão ver, ouvir e entender seu histórico de novas formas. Na prática, os médicos ganharão "super poderes", com tecnologias que permitirão que eles tenham visão de "raio-X" para ver imagens médicas; audição supersensível para encontrar sons, quase imperceptíveis, no seu batimento cardíaco; e formas de organizar informações sobre o modo de tratamento de um paciente. Um avatar – uma representação 3D do seu corpo – permitirá que os médicos visualizem informações de forma totalmente nova. Eles poderão clicar com o mouse do computador em uma determinada parte do seu avatar para fazer uma busca de seus registros médicos e recuperar informações importantes, ao invés de folhear páginas de anotações. O computador automaticamente irá comparar essas informações sonoras e visuais com milhares de registros de outros pacientes e poderá ser muito mais preciso no diagnóstico e no seu tratamento, com base na comparação com casos similares.

quinta-feira, 27 de novembro de 2008

DTN - Em Testes Novo Protocolo de Internet...

É impressionante a resiliência dos pesquisadores e cientistas na busca de novas tecnologias de forma a facilitar e dinamizar o trabalho no que tange a informática, robótica e internet.

Pergunto se você se lembra bem o que estava estudando há exatos 10 anos. Pois há uma década iniciáva-se uma parceria entre a Nasa e o Google visando desenvolver um novo protocolo de transmissão para a internet no qual não houvesse perdas de dados frente a quedas na origem ou destino da mensagem. E o mais vultoso nessa empreitada é que o objetivo dessa pesquisa e experimento não é somente encontrar um novo e eficaz protocolo de internet, mas sim encontrar um novo e eficaz protocolo de internet para viajar pelo espaço.

Fonte: http://www.nasa.gov/home/hqnews/2008/nov/HQ_08-298_Deep_space_internet.html

Boa leitura...

Claudeir Hygino...


NASA e Google fazem primeiros testes com Internet espacial
Redação do Site Inovação Tecnológica 19/11/2008

A NASA testou com sucesso a primeira rede espacial de comunicações digitais baseada na Internet. Os engenheiros do Laboratório de Propulsão a Jato utilizaram uma tecnologia chamada DTN ("Disruption-Tolerant Networking") para transmitir pacotes de imagens entre a Terra e uma sonda espacial localizada a 20 milhões de quilômetros no espaço.

Internet espacial

"Este é o primeiro passo na criação de uma capacidade totalmente nova de comunicações espaciais, uma Internet interplanetária, afirmou Adrian Hooke, gerente do projeto, em comunicado da NASA.
O desenvolvimento do protocolo da Internet espacial foi feito em parceria com o Google, em uma pesquisa que demorou 10 anos para ser concluída. O protocolo de transmissão de dados DTN envia as informações de forma diferente do TCP/IP da Internet terráquea. Vint Cerf, do Google, participou do desenvolvimento dos dois.

Internet Interplanetária

A Internet Interplanetária, como a NASA está chamando a nova rede de comunicações espaciais, deverá ser robusta o suficiente para lidar com longos delays nas transmissões, interrupções bruscas e desconexões.
Além da distância entre as sondas espaciais, e entre elas e a Terra, a comunicação é perdida quando uma sonda entra atrás de um planeta ou quando tempestades solares atrapalham a transmissão de dados no espaço. O delay de uma comunicação com Marte, por exemplo, com os sinais digitais viajando à velocidade da luz, é de 20 minutos.

TCP/IP da era espacial

Ao contrário do TCP/IP, o DTN não pressupõe uma conexão contínua entre dois computadores. Se o destino não for encontrado, ou se a rota para não puder ser identificada, o pacote não é descartado.
Cada nó, ou computador, da Internet Interplanetária mantém a informação pelo tempo que for necessário, até que ele possa se comunicar de forma segura com o próximo nó. Isto garante que não haverá perdas nos dados mesmo com as mais adversas situações encontradas no espaço.
Em sua inauguração, a Internet Interplanetária tem 10 nós. Um deles é a sonda espacial Epoxi, enviada para encontrar o cometa Halley 2 em 2010. Epoxi é o novo nome da sonda especial impacto profundo, que lançou um projétil sobre o cometa Tempel 1 em 2005.

Os outros nós são sondas espaciais em órbita de Marte e da Terra e computadores no próprio laboratório da NASA que simulam os robôs Spirit e Opportunity que estão explorando Marte.
Este primeiro teste, com um mês de duração, deverá ser seguido por vários outros para qualificar a tecnologia para que a Internet Interplanetária possa ser usada de fato nas futuras missões espaciais.

Hoje, a comunicação da NASA com as suas sondas é feita de forma programada e manual, com o estabelecimento de links quando há coincidência de órbitas entre a sonda, as estações retransmissoras e a Terra.

quarta-feira, 26 de novembro de 2008

DENUNCIE OS MAUS!!!



"QUANDO OS BONS CRUZAM OS BRAÇOS E SE CALAM, OS MAUS AVANÇAM E DITAM AS REGRAS!!!"


VOÇÊ É BOM OU MAU???


NÃO VAMOS PERMITIR QUE A INTERNET SEJA LOTEADA POR PESSOAS MÁS E PEDÓFILAS!!! DENUNCIE!!! NÃO SE CALE!!! NEM CRUZE OS BRAÇOS!!!


A SAFERNET BRASIL MANTÉM UM CANAL DIRETO PARA DENÚNCIAS DE VÁRIOS TIPOS... É SIMPLES E RÁPIDO... E VOCÊ SÓ TEM QUE COLOCAR O ENDEREÇO OU LINK E UM COMENTÁRIO...




VAMOS FAZER NOSSA PARTE??? FALE AOS AMIGOS!!!


OBRIGADO...


Claudeir Hygino...


quinta-feira, 20 de novembro de 2008

Tecnologia dos HDs utilizada em chips...

Saudações!

Não tem muito tempo os cientistas nos surpreenderam com um software que se acoplava perfeitamente em leitores de CDs/DVDs presentes em computadores para fazer leituras de partículas quimicas.
A amostra química era colocada em solução própria e espalhada na face de leitura de um CD comum; o laser de leitura comandado pelo softwares fazia as leituras e passava dados precisos.
Agora, com a utilização da tecnologia das cabeças de leitura de discos rígidos auxiliando em exames laboratoriais só nos faz pensar em como temos máquinas avançadas em nossas casas e as vezes nem percebemos.

http://pubs.acs.org/journals/ancham/index.html

Boa leitura...

Claudeir Hygino...

Biochip faz exame de laboratório com tecnologia de discos rígidos

Redação do Site Inovação Tecnológica 17/11/2008

Cientistas norte-americanos utilizaram a mesma tecnologia empregada na leitura dos discos rígidos de computador para criar um novo biochip capaz de analisar amostras biológicas com uma precisão inédita.

Biochips são minúsculos laboratórios de análises clínicas do tamanho de um chip de computador, que prometem revolucionar o diagnóstico de doenças, permitindo que os exames laboratoriais sejam feitos em casa ou, no máximo, no próprio consultório médico.
Magnetorresistência gigante

O novo biochip utiliza o efeito da magnetorresistência gigante (GMR - Giant MagnetoResistance), empregado nas cabeças de leitura dos discos rígidos de computadores.

Agora uma equipe de quatro universidades norte-americanas utilizou a mesma tecnologia para construir um biochip que consegue detectar aglomerados magnéticos de dimensões microscópicas.

Bioanálises

"Vários laboratórios já começaram a fazer a transição da GMR do domínio do armazenamento digital de dados para o domínio das ciências bioanalíticas," comentam os pesquisadores em seu artigo. "Nós acreditamos que, apostando nos avanços feitos na indústria de gravação magnética (por exemplo, nos tocadores de música digital), um dispositivo robusto, portátil, capaz de detectar eventos de ligações [moleculares] individuais está literalmente no horizonte."

A precisão herdada da cabeça de leitura dos discos rígidos significa que o novo biochip, que ainda está em fase laboratorial, é capaz de detectar amostras ainda menores do que as que podiam ser analisadas com outras versões de microlaboratórios.

terça-feira, 18 de novembro de 2008

Notebooks detectando terremotos...

Saudações!
Realmente uma ótima iniciativa a conexão de Notebooks e Desktops em rede pelo mundo para a detecção de epicentros de terremotos. Somente a descentralização e passagem de parte da responsabilidade para pessoas interessadas de verdade irá nos prevenir de desastres como o episódio das tsunames. Claro, ainda há muito o que progredir em se falando de alertas a população, contudo penso que o primeiro passo já foi dado.

http://qcn.stanford.edu/

Boa leitura...

Claudeir Hygino...

Notebooks viram sensores de terremotos

Redação do Site Inovação Tecnológica
10/11/2008

Talvez não conste das especificações do seu notebook, mas ele certamente contém em seu interior um pequeno acelerômetro - um chip destinado a detectar movimentos bruscos e quedas, a fim de proteger as delicadas partes móveis do seu HD.

Sensores de terremotos

Acontece que esse acelerômetro é também um excelente sensor para detectar terremotos. Com os sensores de terremotos profissionais custando entre US$10.000 e US$100.000,00, uma pesquisadora teve uma idéia inovadora - usar milhares, ou até milhões, de notebooks ao redor do mundo como sensores para detectar e medir a intensidade dos inúmeros terremotos e pequenos tremores que acontecem o tempo todo.
A iniciativa está permitindo que se aumente a área de cobertura dos sensores muito além do que seria possível com a instalação de estações medidoras científicas e profissionais. E a custo praticamente zero.

"Com muitos mais sensores baratos, em vez de calcular onde os terremotos mais fortes foram sentidos, por meio da interpolação entre os sensores [profissionais instalados], nós seremos capazes de saber imediatamente onde os grandes abalos foram sentidos porque nós teremos sensores lá," diz a pesquisadora Elizabeth Cochran, da Universidade da Califórnia, nos Estados Unidos.

Computação distribuída

O projeto, chamado QCN (Quake Catcher Network), já conta com 1.500 notebooks cedidos voluntariamente por seus proprietários, que ficam coletando dados enquanto o aparelho está em funcionamento. A rede já detectou vários tremores de terra, inclusive um terremoto de 5,4
pontos na escala Richter, que ocorreu em Los Angeles em Julho deste ano.

O projeto usa a plataforma Boinc, a mesma utilizada por projetos como o SETI@home, folding@home e LHC@Home.

O sistema central, que processa os dados recebidos dos notebooks que coletam os dados, efetua uma filtragem, comparando os resultados das máquinas de locais vizinhos para filtrar vibrações que não são originadas de terremotos - como um esbarrão na mesa onde o computador está.
Atualmente o Projeto QCN atribui os dados à localização geográfica informada pelo usuário. No futuro, contudo, à medida que mais computadores venham equipados com GPS, o sistema deverá atingir uma precisão ainda maior.

Hackers do bem

Esse uso inusitado dos acelerômetros dos computadores portáteis foi possível graças ao trabalho de um grupo de hackers do bem chamado teenage mutant ninjas. Em 2005, eles descobriram como acessar o acelerômetro em computadores Apple. Um ano mais tarde, David Griscom fez um programa chamado SeisMac, apresentado como uma ferramenta educacional para um grupo de sismólogos dos Estados Unidos.
Elisabeth teve a idéia de integrar o SeisMac à plataforma Boinc, o que foi feito por Carl Christensen, um especialista em computação distribuída. A primeira versão foi lançada em Março deste ano e, em Abril, a rede já detectou o seu primeiro terremoto.
Christensen agora está trabalhando na integração de sensores stand-alone, que poderão ser conectados a computadores de mesa, que não possuem os acelerômetros integrados, por meio de uma porta USB. Os sensores USB custam cerca de US$30,00 cada um, o que faz os pesquisadores acreditarem que será possível expandir sua rede rastreadora de terremotos por toda a Terra.

domingo, 9 de novembro de 2008

Nanoimageamento em Telas LCD...

Saudações!!!
Muito legal esses avanços de tecnologia... Se hoje jogamos games que nos possibilitam grande resolução de tela, com elevado grau de definição de imagens, imaginem com a inclusão do nanoimageamento... Espero que gostem da leitura... Grande Abraço em Todos...
Claudeir Hygino...

Telas de LCD avançam com processo 3-D de nanoimageamento
Redação do Site Inovação Tecnológica
07/11/2008

Pesquisadores desenvolveram uma técnica óptica de geração de imagens 3D em cristais líquidos com uma resolução volumétrica mil vezes menor do que as tecnologias utilizadas nas telas planas atuais.

Geração de imagens em LCD

Na prática, a indústria poderá agora contar com uma tecnologia que, quando escalada para o ambiente industrial, permitirá a construção de telas LCD com resoluções muito superiores à atual, criando pixels menores e mais precisos, graças a um melhor entendimento do seu funcionamento em escala molecular.

Em termos científicos, a pesquisa trouxe explicações detalhadas dos fenômenos em nível molecular que acontecem na geração das imagens pelos chamados fluidos anisotrópicos - como o cristal líquido - que até hoje eram largamente baseadas em inferências a partir de experimentos macroscópicos.

Cristais líquidos

As moléculas desses fluidos anisotrópicos - cristais líquidos, polímeros ordenados, geles e emulsões - podem ser orientados por campos elétricos ou magnéticos para controlar as propriedades de polarização da luz. É assim que a imagem é gerada nas telas LCD. Só que, até agora, o conhecimento desse funcionamento em nível molecular era ainda muito limitado.

A equipe do Dr. Charles Rosenblatt, da Universidade Case Western Reserve, nos Estados Unidos, descobriu como manipular as estruturas de coleta de imagens do interior do cristal líquido com precisão de décimos de nanômetros, o que gera uma imagem de sua estrutura molecular com nuances e detalhes muito mais precisos.

A técnica atual para estudo da geração de imagem em cristais líquidos é chamada de microscopia óptica de rastreamento de campo. Os pesquisadores melhoraram esta técnica coletando a luz em diversas alturas no interior do substrato, criando um sistema que eles batizaram de nanotomografia óptica polarizada, um sistema para mapeamento tridimensional do fluido anisotrópico.

domingo, 2 de novembro de 2008

Computador Entendendo as Emoções Humanas

Navegadores GPS vão entender como você se sente
Redação do Site Inovação Tecnológica
31/10/2008

Os equipamentos de GPS nos carros não são mais nenhuma grande novidade. Mesmo que a maioria dos motoristas ainda não possa contar com a sua funcionalidade, os engenheiros já estão se preparando para dar o próximo passo - eles querem que as orientações de rotas de direção dadas pelos aparelhos de localização por satélite levem em conta o humor e o estresse do motorista.

Computadores que reconhecem emoções

O sistema, que está sendo desenvolvido por Trung Bui, da Universidade de Twente, na Holanda, é capaz de reconhecer as emoções do motorista analisando a sua voz. Uma vez detectada a emoção, o computador altera seu comportamento e a forma como as instruções do GPS são passadas, para ajudar o motorista de forma mais efetiva.

O grande avanço do sistema construído por Bui é justamente tornar um computador capaz de identificar uma emoção humana. Além de aparelhos de GPS, a pesquisa terá grande utilidade em todos os sistemas em que haja uma interação entre computadores e humanos, como em quiosques de informações e em robôs, por exemplo.

Identificando emoções

Quando o assunto é emoção, os humanos são capazes de combinar vários tipos de informações para chegar a uma conclusão - o tom de voz, a expressão facial e até a escolha das palavras são alguns dos elementos levados em conta para identificar as emoções de uma pessoa com a qual estamos interagindo.

Programar essa capacidade em um computador é uma tarefa cheia de meandros. Por exemplo, um tom de voz mais elevado pode indicar tanto raiva quanto entusiasmo.

Markov e redes de decisão

Bui utilizou duas técnicas em conjunto para enfrentar esse desafio. A primeira é chamada POMDP (Partially Observable Markov Decision Process), processo de decisão parcialmente observável de Markov, uma técnica matemática desenvolvida nos anos 1960. Esta técnica permite a integração das emoções do usuário em um sistema de diálogo, graças à capacidade da POMDP em lidar com incertezas.

A técnica de Markov é útil para problemas simples, mas exige pesados cálculos quando o diálogo é mais complexo. Nestes casos, Bui optou por utilizar as redes dinâmicas de decisão (DDN - Dynamic Decision Network). Os diálogos são divididos em dois níveis, sendo cada um enviado para uma das abordagens de cálculo de acordo com sua complexidade. A distribuição dos diálogos entre os dois níveis é feita verificando-se a disponibilidade de poder de processamento.

O sistema foi testado em veículos que atendem situações de emergência. Dois módulos de avaliação do estresse do usuário enviam seus resultados para o sistema de navegação. Quando é detectado que o estresse está se elevando, o que torna o atendente mais propenso a cometer erros, o sistema passa a exigir confirmações de suas instruções mais freqüentemente.

sábado, 25 de outubro de 2008

O Futuro dos RHs...

Mecanismo de busca encontra a pessoa certa para um emprego

Krisztian Balog 23/10/2008

A quantidade de páginas indexadas pelos mecanismos de busca e a disseminação das redes sociais tem tornado disponível uma quantidade de informações pessoais tão grande que, em vez de mais fácil, está cada vez mais difícil encontrar uma pessoa com as características desejadas quando o assunto é conseguir um novo colaborador ou arranjar um emprego.

A pesquisa por documentos, imagens, e até músicas, avançou muito nos últimos anos. Mas o assunto é diferente quando se trata de encontrar uma pessoa. E esta é uma atividade cada vez mais necessária dentro de empresas e organizações, que rotineiramente precisam localizar funcionários ou potenciais colaboradores com determinadas características e talentos.

Mecanismo de busca de pessoas

Agora, um novo programa de computador, feito pelo cientista da computação holandês Krisztian Balog, pode ajudar nessa busca. Ele introduziu dois novos modelos de pesquisa que tornou mais fácil a tarefa de encontrar a pessoa certa de forma mais rápida e mais precisa.

Em sua tese de doutoramento, Balog focou-se em encontrar pessoas dentro de empresas e organizações. Uma busca desse tipo pode ser extremamente útil no mundo dos negócios, permitindo, por exemplo, que um gerente encontre rapidamente quem trabalhou em um determinado projeto e quem possui determinados conhecimentos ou características pessoais.

Busca de funcionários e empregos

O novo sistema também poderá ajudar na troca de informações entre empresas, principalmente entre filiais de grandes empresas, entre as empresas e a imprensa e entre as empresas e as agências de emprego. O departamento de recursos humanos de uma empresa, por exemplo, poderá achar rapidamente a pessoa com o perfil desejado no meio de gigabytes de currículos.

No primeiro modelo de pesquisa é criada uma lista de especialistas para um determinado assunto. No segundo, é criada uma lista de assunto dominados por cada um dos especialistas.

Rastros digitais

O problema de procurar por pessoas é que uma pessoa não pode ser caracterizada por uma mera lista de palavras-chave. Entretanto, cada pessoa deixa o que Balog chama de "rastro digital," porque seu nome consta em diversos textos arquivados nos sistemas da empresa.

Balog então desenvolveu um algoritmo que usa esses rastros digitais para compilar uma lista de assuntos associados a cada pessoa. A partir daí o programa seleciona a pessoa que melhor satisfaça os critérios definidos na busca.

Modelos geradores de linguagem

O pesquisador combinou modelos geradores de linguagem com algoritmos de aprendizado. Os modelos de linguagem expõem padrões no uso da linguagem relacionados a pessoas e assuntos. Os algoritmos de aprendizado reconhecem pessoas e organizações dentro de textos.

O novo programa foi extensivamente testado em grandes empresas, com pessoas situadas em diferentes locais. O método também mostrou-se altamente eficiente na intranet da Universidade de Amsterdam.

domingo, 19 de outubro de 2008

Chips capazes de corrigir falhas...

"Sistema imunológico" artificial vai criar chips tolerantes a falhas
Redação do Site Inovação Tecnológica
17/10/2008

Pesquisadores ingleses estão se inspirando no funcionamento do sistema imunológico humano para construir chips capazes de se autodiagnosticar e corrigir suas próprias falhas sem a necessidade de qualquer intervenção externa.

Batizado de Sabre - Self-healing cellular Architectures for Biologically-inspired highly Reliable Electronic systems: Arquiteturas celulares autocurativas para sistemas eletrônicos de alta confiabilidade biologicamente inspirados - o projeto está sendo conduzido por especialistas de quatro universidades.

Sistemas eletrônicos de alta confiabilidade

Apesar da alta confiabilidade alcançada pela indústria eletrônica atual, com um número mínimo de relatos de falhas de sistemas ocasionadas por defeitos no hardware, a disseminação dos sistemas eletrônicos está exigindo cuidados adicionais com equipamentos que lidam diretamente com a vida humana, entre os quais os sistemas embarcados em aviões, carros e prédios.

Nestes casos, uma falha quase nunca dará tempo para que os engenheiros possam diagnosticá-la e corrigi-la antes que ela cause danos muito sérios. O ideal, nessas condições, é que o próprio hardware detecte a falha e tome medidas para que o equipamento funcione adequadamente mesmo sem a parte que apresentou defeito.

Sistema imunológico artificial

Estudando como o sistema imunológico humano funciona, os pesquisadores estão construindo uma estrutura de "células" capazes de funcionar de maneira integrada e coordenada para defender a integridade do sistema e garantir que os programas possam rodar sem falhas. Eles estão criando um verdadeiro sistema imunológico artificial inteiramente eletrônico.

Sistemas tolerantes a falhas

Já existem sistemas tolerantes a falhas no mercado, mas todos funcionam pela duplicação de todo o sistema ou de uma parte dele. Quando ocorre uma falha, o sistema muda para o backup ou passa a rodar de forma simplificada em um subsistema menor.

"Entretanto, os organismos vivos altamente complexos, como o corpo humano, são capazes de lidar com defeitos em um nível muito mais baixo, no nível das células, defendendo todo o sistema por meio do reparo das células, mantendo desta forma a funcionalidade normal," explica o Dr. Tony Pipe, um dos coordenadores da pesquisa.

"O corpo humano é tanto confiável quanto complexo. É esta capacidade que nós queremos replicar nos sistemas eletrônicos. Estudando a estrutura multicelular dos organismos vivos e seus sistemas imunológicos protetores nós esperamos ser capazes de projetar arquiteturas 'tipo natural' tolerantes a falhas para sistema eletrônicos. Esta pesquisa tem o potencial para influenciar a forma como os sistemas eletrônicos complexos serão projetados no futuro, criando uma nova geração de sistemas eletrônicos que serão tolerantes a falhas e autocurativos," conclui o pesquisador.

Com previsão para durar três anos, o projeto Sabre pretende criar uma nova plataforma que poderá ser utilizada em aviões, sistemas de frenagens antitravamento de veículos, robôs espaciais e satélites artificiais, assim como no controle de processos industriais e nos sistemas de desligamento automático de redes de computadores.

sábado, 11 de outubro de 2008

Novidade nas Buscas por Fotos...

Algumas poucas palavras valem mais do que uma imagem
Redação do Site Inovação Tecnológica
06/10/2008 O ditado afirma que uma imagem pode valer mais do que mil palavras. Mas isso só vale para nós, humanos.

Quando se trata de computadores e mecanismos de buscas, uma única palavra pode fazer a diferença entre encontrar a imagem certa e deixar a riqueza de informações concentradas em uma foto ou desenho perdida no meio de uma infinidade de outras imagens menos relevantes.

Extraindo informações textuais de imagens

Dezenas de tentativas já foram feitas para se extrair informações textuais das informações visuais contidas em imagens. As mais eficientes, contudo, ainda se baseiam nos textos inseridos pelos próprios humanos como título ou como descrição dessas imagens.

Agora, pesquisadores europeus acreditam ter dado um passo importante na automatização dessa tarefa, assim como rumo à possibilidade de se recuperar informações de imagens para as quais títulos e descrições não foram corretamente atribuídos.

Camada de informação

A solução consiste na criação de uma camada de informação sobreposta aos arquivos digitais das imagens. Essa camada informacional extra aproveitará os dados textuais inseridos pelos usuários, mas também será capaz de gerar dados adicionais automaticamente.

Como se trata de uma área extremamente complexa, os pesquisadores do projeto aceMedia reaproveitaram diversas técnicas já desenvolvidas. É o caso da identificação de palavras-chaves visuais de baixo nível - como áreas de cores consistentes que podem ser interpretadas como céu, mar, areia ou neve.

A mesma técnica permite a identificação de contornos, textura e formato.

Palavras-chaves e domínios ontológicos

Combinando as palavras-chaves com conjuntos de regras contextuais mantidas em domínios ontológicos - tais como o fato de que areia e neve geralmente não aparecem na mesma imagem ou que áreas azuis no topo de uma imagem têm grande probabilidade de ser o céu - os pesquisadores conseguiram transformar os dados digitais das imagens em uma rica fonte de informação.

Os dados das palavras-chave de baixo nível também são combinados com resultados de detectores específicos, como programas capazes de localizar rostos em uma foto.

Regras pessoais

Os usuários também poderão adicionar suas próprias preferências à camada de informação, definindo regras particulares para atribuição de palavras-chave e criar um sistema de arquivo pessoal de imagens que permita sua recuperação posterior.

A plataforma desenvolvida pelos pesquisadores foi batizada de ACE (Autonomous Content Entity). A camada ACE define uma API que suporta conexões em rede, gerenciamento de bases de dados, codificação escalável, pré-processamento de conteúdo, visualização do conteúdo, análise de conteúdo baseada em conhecimento, assim como módulos de modelagem e análise contextual

sábado, 4 de outubro de 2008

Sinergia pelo futuro da ciência...

Andróides e alienígenas vão se juntar à pesquisa pangaláctica
Redação do Site Inovação Tecnológica
30/09/2008

Pesquisa "pangaláctica" é uma ironia bem-humorada que os cientistas utilizam para se referir ao projeto SETI, que busca vida extraterrestre analisando sinais captados por grandes radiotelescópios.

Nenhum alienígena foi detectado até agora, mas o projeto SETI já deu um resultado mais significativo do que a maioria dos outros grandes projetos científicos - que são mais convencionais e suscitam menos ironias, mas que nem sempre geram efeitos de tamanho alcance.

Cessão voluntária de computadores

Hoje, mais de 50 projetos científicos de grande porte só estão sendo executados graças ao desenvolvimento de uma plataforma de computação distribuída capaz de segmentar grandes cálculos computacionais e distribui-los para serem feitos em milhões de computadores pessoais, cedidos voluntariamente por seus proprietários. Os programas científicos somente rodam nos momentos em que o computador está ocioso.

Essa plataforma foi desenvolvida para o SETI@Home, que permite que os dados coletados pelos radiotelescópios do Projeto Seti sejam processados nos momentos de ociosidade dos computadores dos voluntários, em busca de padrões que podem indicar transmissões feitas por seres inteligentes.

Ciência em casa

Entre esses grandes projetos estão o folding@home, que está tentando desvendar o mistério dos dobramentos das proteínas, o Einstein@home, que analisa as ondas gravitacionais, e o LHC@Home, que vai processar os dados do maior acelerador de partículas do mundo e que poderá ajudar a compreender como surgiu nosso universo.

Todos esses projetos utilizam a plataforma Boinc (Berkeley Open Interface for Network Computing), que nasceu a partir do SETI@Home. Em janeiro desde ano, os computadores cedidos voluntariamente para participação nesses projetos somavam uma capacidade de processamento de 1 petaflop.

Agora, os pesquisadores querem dar dois passos importantes para avançar na exploração do potencial desse gigantesco supercomputador "pangaláctico."

Andróide e Java

Como já existem muitos mais telefones celulares do que computadores no mundo, os cientistas querem adaptar a plataforma Boinc para rodar nesses aparelhos portáteis, utilizando principalmente o sistema operacional Android, desenvolvido pelo Google.

O potencial de ganhos em capacidade de processamento é gigantesco, principalmente porque os telefones celulares de hoje já possuem uma capacidade superior à dos computadores pessoais quando o sistema Boinc foi lançado, em 2003. Para isso, os pesquisadores estão traduzindo todo o código-fonte do Boinc, da linguagem C em que foi programado originalmente, para a linguagem Java.

Computação distribuída e em nuvem

O segundo esforço que está sendo iniciado agora consiste na convergência da computação voluntária, como inaugurada pelo SETI@Home, com a computação distribuída (grid computing), criando uma verdadeira nuvem de computação (cloud computing).

Para isso, os desenvolvedores estão construindo uma ponte entre o Boinc e os sistemas de computação distribuída, permitindo que os dados fluam nos dois sentidos. O projeto foi batizado de Enabling Grids for E-sciencE (EGEE).

Quando finalizado, o novo programa deverá permitir a unificação dos computadores rodando aplicativos baseados no Boinc e os grandes supercomputadores e clusters instalados nos institutos e universidades onde cada pesquisa é conduzida.

Outro enfoque que está sendo estudado baseia-se na virtualização. Utilizando máquinas virtuais criadas por programas como o VMware, os pesquisadores esperam ampliar o aproveitamento do poder computacional de computadores pessoais e notebooks dos milhões de voluntários que se oferecem para colaborar nas pesquisas científicas.

domingo, 28 de setembro de 2008

Algoritmo dá a computadores uma capacidade quase humana

Algoritmo dá a computadores uma capacidade quase humana
Redação do Site Inovação Tecnológica
25/09/2008
Novo algoritmo consegue encontrar padrões em dados brutos, identificando a estrutura - ordens lineares, anéis ou clusters - que melhor descreve os dados.

Nós temos uma capacidade inata, e uma tendência quase inconsciente em utilizar essa capacidade, de encontrar padrões em grandes volumes de dados e informações. Foi assim que nossos antepassados traçaram as constelações na infinidade de estrelas que eles observavam no céu, e é assim que nós localizamos um grupo de amigos no meio de um salão lotado.

Capacidade de ordenação

Seria muito útil se conseguíssemos replicar essa capacidade nos computadores - a Era da Informação está gerando uma quantidade de dados maior do que tudo o que a humanidade gerou ao longo de milênios. Sabemos que essa montanha de dados contém informações valiosas, mas só conseguiremos tirar proveito delas se os próprios computadores forem capazes de capturá-las para nós.

Para que um computador ordene um conjunto de dados, nós devemos encontrar a ordem subjacente a esses dados e então dizer ao computador como ordená-los, por meio de um programa.

Encontrando padrões em dados brutos

Agora, pesquisadores do MIT elaboraram um algoritmo que é capaz de encontrar um padrão nos dados brutos, e então ordená-los segundo esse padrão. "Em vez de procurar por um tipo particular de estrutura, nós criamos um algoritmo mais amplo que é capaz de testar todas essas estruturas e pesá-las umas contra as outras," explica Joshua Tenenbaum, coordenador da pesquisa.

O algoritmo consegue entender vários tipos de estruturas de dados, como árvores, ordens lineares, anéis, hierarquias dominantes, clusters etc. Ele analisa os dados brutos até encontrar a estrutura que melhor os descreve e então ordena os dados seguindo essa estrutura.

Os humanos fazem isso o tempo todo, na vida diária, freqüentemente de forma inconsciente. Várias descobertas-chave na história da ciência também consistiram na localização desses padrões, como na elaboração da Tabela Periódica ou na criação do sistema de classificação das espécies utilizada pela biologia.

domingo, 21 de setembro de 2008

ALÉM DA BIOMETRIA...

Além da biometria: reflexos pessoais criam mecanismo perfeito de proteção
Redação do Site Inovação Tecnológica
11/09/2008


Equipamentos biométricos, imagens da íris e programas de reconhecimento de assinaturas estão se tornando cada vez mais comuns, graças à crescente preocupação com a segurança na área da informática e do acesso a locais restritos.

Deficiências da biometria

Só que nenhum deles é perfeito, afirmam pesquisadores japoneses, alertando que todos esses equipamentos e procedimentos de segurança podem ser enganados por um invasor suficientemente sofisticado.

"[] a informação biométrica pode facilmente vazar ou ser copiada. Desta forma, é desejável criar uma autenticação biométrica que não exija que a informação biométrica seja mantida secreta," afirmam Masakatsu Nishigaki e Daisuke Arai, da Universidade de Shizuoka.

Além da biometria

E, segundo eles, existe uma solução: é possível elaborar um mecanismo perfeito de segurança utilizando os reflexos pessoais, que jamais poderão ser copiados, imitados ou forjados.

Os reflexos humanos não dependem de controle consciente. Assim, mesmo se as reações de uma pessoa forem vistas por alguém mau intencionado, esse potencial invasor jamais conseguirá repetir com precisão aqueles reflexos, porque ele adotará inconscientemente os seus próprios reflexos de forma inconsciente.

Ponto cego do olho

Para comprovar sua teoria, Nishigaki e Arai utilizaram a escotoma, também conhecida como ponto cego, uma área fixa na retina onde estão o nervo óptico e uma série de vasos sangüíneos, o que impede que se forme uma imagem nesse local. Esse ponto cego pode ser detectado pelo monitoramento de movimentos sutis da esquerda para a direita que nossos olhos fazem quando acompanham um objeto que se move da direita para a esquerda.

Usar somente o ponto cego, contudo, não garante segurança total. Segundo os cientistas, alguém poderia passar por uma cirurgia ou inventar algum tipo muito engenhoso de lente de contato capaz de enganar o sistema. Assim, não haveria ganhos significativos em relação ao reconhecimento da íris.

Movimentos reflexos

A deficiência pode ser resolvida utilizando-se a posição do ponto cego do olho para induzir movimentos sacádicos, uma troca reflexa repentina da posição do olho. A autenticação do usuário poderá ser feita apresentando um alvo na direção do ponto cego e fora dele, utilizando a tecnologia de rastreamento do olho para medir o tempo gasto pelo movimento reflexo. Cada padrão de resposta é único para cada indivíduo.

Segundo os pesquisadores, um método assim não poderia ser ludibriado por invasores mesmo que utilizando os mais sofisticados materiais, equipamentos ou mesmo cirurgias.

"Nosso método transforma as diferenças na informação biométrica fisiológica - o ponto cego - em diferenças nos reflexos humanos - movimentos sacádicos - e as utiliza para autenticação," afirmam eles.

sábado, 13 de setembro de 2008



Brasileiros vão ajudar a ligar a Máquina do Começo do Mundo
Redação do Site Inovação Tecnológica
10/09/2008

Embora alguns físicos dissidentes estejam afirmando que o LHC (Large Hadron Collider) será a máquina do fim do mundo, podendo criar buracos negros que destruirão a Terra, a maioria da comunidade científica quer mesmo é descobrir os segredos do começo do mundo (veja Buracos negros microscópicos não vão destruir a Terra, garantem físicos).

Maior experimento científico da história

Hoje, dia 10 de Setembro, começarão os primeiros testes de funcionamento daquele que já é considerado o maior experimento científico da história. Em mais ou menos um mês, ele deverá estar em funcionamento total.

Será então o momento da verdade: pela primeira vez na história, os cientistas poderão observar dois prótons chocando-se violentamente um contra o outro, depois de acelerar ao longo de um anel de 27 quilômetros de perímetro, situado a mais de 100 metros de profundidade ao longo da fronteira entre a Suíça e a França.

A data para a inauguração oficial do acelerador está marcada para 21 de outubro, com a presença de presidentes e ministros de Estado da Europa e de outros países que ajudaram a construir o laboratório e que participarão das experiências.

A construção do LHC durou 14 anos, contando com a colaboração e o compartilhamento do conhecimento de 6.000 cientistas de 181 institutos de pesquisas de diversos países. O custo chegou a US$8 bilhões.

Do infinitamente pequeno ao infinitamente grande

O principal objetivo dos experimentos é investigar o infinitamente pequeno, mas também tirar conclusões sobre o infinitamente grande a partir do estudo do choque das partículas subatômicas.

"Embora ainda estejamos muito longe da suposta grande explosão que teria dado origem ao Universo que conhecemos, estamos dando mais um passo importante no caminho de aproximação de algumas das condições de então, ao realizarmos experiências nas energias do LHC", afirma o físico brasileiro Alberto Santoro, que participa do experimento.

Quatro experimentos

"O Brasil não está fora desta nova era da ciência", declarou Alberto Santoro, que é coordenador do grupo da UERJ no Compact Muon Solenoid LHC/CERN. Os físicos brasileiros, com apoio do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq/MCT), estão envolvidos nos quatro experimentos do LHC desde a década de 1990.

O LHC é um acelerador, mas cujas peças principais são justamente os sensores que detectam os resultados dos impactos das partículas aceleradas. São quatro aparelhos, reunindo a mais avançada tecnologia hoje disponível: ALICE (A Large Ion Collider Experiment), LHCb (LHC Beauty), ATLAS (A Toroidal LHC Apparatus), e CMS (Compact Muon Solenoid).

Participação brasileira

"O CNPq apóia a participação de pesquisadores brasileiros nos experimentos do CERN entendendo que eles contribuem para o avanço da ciência e para a formação de cientistas de alto nível. Por exemplo, de 1999 a 2004, a agência pagou 100 mil francos suíços por ano para a construção do equipamento referente ao experimento ATLAS. Foram ao todo R$ 1,2 milhão. Além disso, temos apoiado os grupos de pesquisa que participam dessa colaboração oferecendo bolsas para Doutorado Sanduíche com duração ampliada para dois anos", disse o diretor de Programas Horizontais e Instrumentais do CNPq, José Roberto Drugowich.

A participação dos brasileiros envolve pesquisadores, professores, estudantes de universidades e institutos de pesquisa do Brasil. Atualmente, o grupo de física nuclear da USP participa do experimento ALICE, os físicos e engenheiros do CBPF e UFRJ, do LHCb, os grupos da UFRJ e COPPE, do CMS, e os grupos do CBPF, UERJ, UNESP, UFRGS e CEFET, do ATLAS.

sexta-feira, 12 de setembro de 2008

Brasil terá novo supercomputador para estudar o clima

Brasil terá novo supercomputador para estudar o clima
Agência Fapesp
09/09/2008


O Brasil terá a quinta ou a sexta maior capacidade do mundo para modelagens climáticas a partir do primeiro semestre de 2009, quando está prevista a chegada de um novo supercomputador ao Instituto Nacional de Pesquisas Espaciais (Inpe).

A afirmação é de Carlos Nobre, pesquisador do Centro de Previsão do Tempo e Estudos Climáticos (CPTEC) do Inpe. De acordo com ele, o sistema computacional estará ainda entre os 50 maiores do mundo levando em conta todas as aplicações.

Clube dos 15 da modelagem climática

"Ele nos colocará em um clube de 15 países que têm essa capacidade de modelagem climática. Desses, apenas a China e a Coréia do Sul são nações em desenvolvimento", disse Nobre à Agência FAPESP.

O supercomputador será instalado no CPTEC, junto ao Centro de Ciência do Sistema Terrestre do Inpe, dirigido por Nobre. O sistema, que terá capacidade de processamento de 15 teraflops (15 trilhões de operações matemáticas por segundo), será adquirido por meio de uma parceria entre a FAPESP e a Financiadora de Estudos e Projetos (Finep).

"O valor total do investimento para o supercomputador é de R$ 37 milhões, sendo R$ 24 milhões provenientes do Fundo Nacional de Ciência e Tecnologia e R$ 13 milhões da FAPESP. Além disso, mais R$ 11 milhões para infra-estrutura virão do governo federal. Estamos iniciando o processo de licitação internacional para a compra", disse Nobre.

Segundo ele, 30% do tempo do supercomputador será reservado para projetos apoiados pelo Programa FAPESP de Pesquisa sobre Mudanças Climáticas Globais, lançado no fim de agosto.

Atualização constante

Nobre lembra que o primeiro supercomputador brasileiro, modesto para os padrões atuais, foi adquirido em 1997. O segundo teve a sua primeira parte adquirida em 2001 e a segunda em 2004.

"Quando recebemos esse segundo, ele estava entre a 30ª ou 40ª posição entre as máquinas com mais capacidade voltadas para a área de meteorologia e clima. Hoje, já caímos para além do centésimo lugar", disse.

O novo supercomputador incluirá o Brasil definitivamente na lista dos países mais bem equipados para modelagem climática. "Haverá uma mudança filosófica. Tenho certeza de que, depois de receber o novo computador em 2009, em 2013 teremos mais um. Vamos entrar nesse eixo e, como fazem outros países, começar a trocar de equipamentos a cada cinco anos para uma nova geração", afirmou.

Próximo relatório do IPCC

Segundo Nobre, com a nova capacidade computacional o Brasil terá papel central na elaboração do próximo relatório do Painel Intergovernamental de Mudanças Climáticas (IPCC). "Finalmente poderemos desenvolver a modelagem de sistemas climáticos de forma autônoma. Com modelos próprios, que representarão melhor as condições locais, vamos ter autonomia para gerar cenários de mudanças climáticas. Isso é importante porque vamos ter mais certeza do que estamos fazendo", explicou.

O cientista afirmou ainda que o supercomputador dá ao país uma possibilidade única para trabalhar possibilidades de adaptação às mudanças climáticas.

"Mais de 50% do PIB brasileiro têm a ver com recursos renováveis, como energia. Temos também a maior expressão de biodiversidade do mundo. São aspectos vulneráveis para as mudanças do clima e é nossa responsabilidade estudar as formas de cuidar desses recursos", disse.

quarta-feira, 10 de setembro de 2008

Cientistas espanhóis afirmam estar a caminho da construção de máquinas conscientes

Cientistas espanhóis afirmam estar a caminho da construção de máquinas conscientes
Redação do Site Inovação Tecnológica04/09/2008
[Imagem: UC3M]
Cientistas da Universidade Carlos III de Madri, na Espanha, propuseram um sistema integrado para testar e reproduzir o fenômeno da consciência em sistemas artificiais.
Batizada de CERA (Conscious and Emotional Reasoning Architecture), a plataforma integra diferentes componentes cognitivos para controlar robôs de forma autônoma. O programa é controlado por parâmetros que regulam diferentes funções cerebrais, como a atenção, a contextualização e os reflexos.
Consciência artificial
Raúl Arrabales Moreno e Araceli Sanchis de Miguel partem do pressuposto de que os atuais avanços das neurociências já são suficientes para permitir a reprodução artificial do funcionamento do cérebro.
Segundo eles, sistemas de imageamento "como a tomografia por emissão de pósitrons (PET) ou a ressonância magnética funcional (fMRI) permitiram começar a compreender como funciona o cérebro humano e a desmistificar o fenômeno da consciência."
Um simpósio recente que reuniu os maiores pesquisadores europeus na área das neurociências concluiu justamente o contrário, mas isso não impediu que os pesquisadores espanhóis começassem a criar os seus primeiros experimentos de "consciência artificial."
Cognição robótica
A arquitetura CERA integra diferentes componentes cognitivos em um sistema para controle de robôs móveis autônomos que, segundo os pesquisadores, foi "projetado para ser um ambiente de investigação no qual podem ser testados diferentes modelos de consciência e de emoções."
Composto por três camadas, o modelo de consciência racional se encontra na mais interna, a camada núcleo. A segunda acrescenta os sistemas cognitivos específicos do problema e a camada física contém a definição dos sistemas sensoriais e motores específicos do robô.
"Ao implementar um modelo de consciência se espera que sua aplicação seja de utilidade em situações reais, com capacidade de processar uma grande variedade de estímulos e de se deparar e responder a situações desconhecidas," diz Arrabales, acrescentando que eles ainda não se sentem capazes de construir um robô com um nível de consciência de um ser humano adulto, embora acreditem ser possível reproduzir mecanismos como o de atenção.
Self robótico
A capacidade de refletir acerca de si mesmo, a autoconsciência, é um dos maiores desafios dos pesquisadores e o mais difícil de simular em máquinas.
"Para que um sistema de memória seja capaz de armazenar uma experiência pessoal é necessário que exista um modelo do 'eu' na mente," diz o pesquisador. Outro ponto problemático é a introdução de fatores psicológicos em sistemas artificiais.
Ao projetar um modelo cognitivo de funcionamento da mente e implementá-lo em um sistema de controle para um robô, "já se estão introduzindo fatores psicológicos, como é o caso dos mecanismos de atenção. Assim poderíamos dizer que um robô se distrai quando seu sistema de atenção não funciona bem," diz Arrabales. O mesmo ocorre no caso das emoções cuja simulação em sistemas artificiais serve para "concentrar a atenção nas tarefas mais gratificantes," conclui ele.

domingo, 7 de setembro de 2008

C. J. Hygino Informática


C. J. Hygino Informática
O Profissional em Informática
Campo Grande, Rio de janeiro e Grande Rio
Cansado do trivial???
Buscando novidade, velocidade e acima de tudo HARMONIA ENTRE AMBIENTE E TECNOLOGIA???
O Profissional em Informática tem soluções para vc!!!
SKYPE - claudeir.hygino
Visite...
Telefones... (21)34267576 / 8245 0217
Humor!!!... Dê boas risadas em www.gigafoto.com.br/cjhygino