Páginas

quarta-feira, 22 de agosto de 2012

9 piores falhas de design em produtos eletrônicos


Notebooks, smartphones, carregadores e tablets. Esses e outros dispositivos já fazem parte do nosso dia a dia e apresentam diversas funções práticas e cômodas — alguns podem até se questionar: como viveríamos sem eles?
No incrível mundo das tecnologias, no entanto, nem tudo são flores. Apesar de buscarem combinar eficiência e beleza, algumas companhias podem errar no design de seus aparelhos, causando certos incômodos nas pessoas.
O Tecmundo listou algumas dessas falhas que podem até ser comumente ignoradas em nossa rotina, mas que, se fossem resolvidas, poderiam deixar os aparelhos ainda mais satisfatórios. Confira:

1 - Plug USB

Primeiramente, um aviso: a conexão USB já está bem estabelecida em nosso dia a dia. Neste artigo, a eficiência desse tipo de entrada — que com certeza trouxe diversas praticidades ao uso do computador — não será questionada, apenas iremos abordar uma falha que pode passar despercebida para muitos.

9 piores falhas de design em produtos eletrônicos 
(Fonte da imagem: Reprodução/Think Geek)

Em um primeiro momento, faça as seguintes perguntas: quantas vezes você foi conectar um pendrive em seu computador, “errou” o lado de entrada do dispositivo e teve que virar para ver se acertava? E, não tão raro assim, ainda teve que virar uma terceira vez, porque descobriu que o primeiro modo era o correto, mas, como você sentiu que estava travando um pouco a entrada na tentativa inicial, ficou com medo de forçar o pendrive?

9 piores falhas de design em produtos eletrônicosConceito do Double USB (Fonte da imagem: Reprodução/Engadget)

O USB é definitivamente eficiente, mas seu design pode trazer esse tipo de “travamento” — especialmente quando se tenta conectar algo na parte de trás da torre do computador, que, com tantos cabos, pode atrapalhar a visibilidade da entrada USB, por exemplo.
Pensando nisso, algumas possíveis soluções já estão surgindo para aprimorar o design do USB, deixando-o ainda melhor. Entre as alternativas mais interessantes está o Double USB — um plug que encaixa dos dois lados, pois uma das pastilhas sempre vai ser empurrada para trás pelo computador, enquanto a outra vai apoiar os filetes metálicos para realizar a conexão.

2 - Encontrando o botão “On/Off”

Apesar dos notebooks possuírem um formato básico (o clamshell), cada companhia que desenvolve este tipo de dispositivo modifica alguns detalhes na estrutura para personalizá-lo à marca — e evitar possíveis processos de patentes.

9 piores falhas de design em produtos eletrônicos 
(Fonte da imagem: Reprodução/Thinkstock)

No entanto, nem todas as empresas são felizes na disposição do botão “On/Off” de um notebook (ou mesmo de outros gadgets): se você demora mais que cinco segundos para encontrá-lo, trata-se de um triste caso de um “mau design”. Ele é o principal botão do aparelho e, por isso, deve estar em um local estratégico e de acesso prático.
Muitos, no entanto, acabam “exagerando na dose” e colocam o botão justamente na frente do notebook, por exemplo. Com certeza você o encontrará rápido, mas também será grande a chance de que ele seja desligado ou ligado acidentalmente.

3 - Botões opacos ou que “desaparecem”

Na busca por designs modernos, muitas companhias acabam tirando algumas funcionalidades práticas de seus dispositivos. No mundo dos smartphones, por exemplo, é muito comum encontrarmos aparelhos que, mesmo possuindo poucos botões físicos (já que o touchscreen conquista cada vez mais espaço), ainda fazem questão de “apagá-los” da nossa visão.

9 piores falhas de design em produtos eletrônicos 
(Fonte da imagem: Reprodução/Sony Mobile)

Assim, alguns botões podem apresentar tonalidades muito fracas ou “apagam a luz” depois de serem usados, deixando os símbolos que representam suas funções quase imperceptíveis. No entanto, para muitas pessoas, isso pode ser um incômodo, especialmente por ser importante ter uma completa noção (e visão) de todas as funcionalidades do aparelho.

4 - Entradas “misturadas” nas laterais dos notebooks

Ao estar usando o notebook, instantaneamente você pega o pendrive e tenta encaixá-lo em uma entrada que está na lateral. No entanto, algo parece não estar tão certo assim: por descuido ou desatenção, você acabou com colocar o USB onde, na verdade, é a entrada de rede (o que pode causar até alguns estragos, em casos mais infelizes).

9 piores falhas de design em produtos eletrônicos 
(Fonte da imagem: Reprodução/Thinkstock)

Se isso lhe soa familiar, provavelmente você foi vítima do “mau design” que deixa várias entradas (HDMI, USB, LAN (rj45), firewire etc.) “misturadas” em seu notebook.

5 - Promoção da vez: duas tomadas para um único carregador

Carregadores, em sua grande maioria, são largos e volumosos. O problema, no entanto, é que alguns podem ser ainda mais espaçosos e ocupar (em um estabilizador, por exemplo) duas tomadas — uma para a conexão do dispositivo e outra inutilizada pelo corpo do carregador.

9 piores falhas de design em produtos eletrônicos 
(Fonte da imagem: Reprodução/Gizmodo)

Assim, é possível ver que muitos desses dispositivos não foram planejados para ocupar menos espaço e deixar que as pessoas possam usar uma segunda tomada — o que mostra que o design funcional, neste caso dos carregadores, não foi levado tão em conta.

6 - Alto-falantes em locais inconvenientes

É impossível não questionar a lógica que alguns aparelhos já apresentaram quanto ao posicionamento inconveniente de alto-falantes: por que colocá-los nas costas (tablets) ou na parte inferior (notebooks) da estrutura?

9 piores falhas de design em produtos eletrônicos 
(Fonte da imagem: Reprodução/Gizmodo)

A lógica é simples: em um tablet, por exemplo, os dedos e as palmas das mãos podem facilmente bloquear a saída do som. Nos notebooks, como eles comumente ficam amparados sobre uma mesa ou até mesmo no colo, o som sairia bastante abafado. Felizmente, muitas companhias já corrigiram este tipo de situação em seus aparelhos.

7 - Fazendo “combos” no teclado

Aperte “Fn” (tecla que normalmente está entre o “Control” e o “Alt”) juntamente com outra tecla de mesma cor para poder ativar uma determinada função. Este combo — “Fn mais alguma coisa” — ainda é bastante encontrado nos teclados de alguns computadores.

9 piores falhas de design em produtos eletrônicos 
(Fonte da imagem: Reprodução/Software Candy)

A questão, no entanto, é saber quais motivos levam as empresas a insistirem nesse tipo de combinação para utilizarmos funções tão simples (como ajustar o volume ou o brilho). No caso, “praticidade” está longe de ser o melhor argumento.

8 - Controle do Nintendo Wii

Novamente, uma explicação prévia: este artigo não irá questionar a eficiência do controle do Nintendo Wii. No caso, a ergonomia que ele oferece é que poderá ser discutida — por ser retangular, este dispositivo não oferece um bom encaixe na mão.

9 piores falhas de design em produtos eletrônicos 
(Fonte da imagem: Reprodução/Popular Mechanics)

Além disso, nos primórdios do lançamento do video game, alguns ainda ousavam utilizar o controle sem a corda de segurança, o que rendeu vídeos engraçados no YouTube com pessoas que acabaram jogando o controle na TV — especialmente pelo material do dispositivo ainda deixá-lo escorregadio em uma mão suada.

9 - Coletores de digitais

Seu tablet, notebook ou telefone pode ser novo e cheio de estilo. No entanto, por mais cuidado que você possa ter em manuseá-lo, é praticamente impossível evitar que as impressões digitais “pipoquem” pelo aparelho e se tornem bastante visíveis — passando uma impressão de “sujeira”.

9 piores falhas de design em produtos eletrônicos 
(Fonte da imagem: Reprodução/Gizmodo)

Normalmente, a culpa está no material utilizado no design destes aparelhos — alguns apostam em superfícies muito brilhantes de plástico, outros até tentam melhorar com o uso de metal, mas nem todos conseguem evitar as marcas de dedos. Pode ser que este tópico não incomode muitas pessoas, mas não deixa de ser algo feio em qualquer gadget.


sábado, 2 de abril de 2011


A evolução dos computadores

Você sabia que computadores já chegaram a pesar 30 toneladas e custar 2 milhões de dólares? Conheça mais sobre a história da informática
.



Das toneladas aos microchips
Não é segredo que o seu computador atual é fruto de uma evolução que levou décadas para chegar aonde está – e ainda está muito longe de chegar ao seu final.  Se pensarmos que cerca de dez anos atrás os processadores ainda nem conheciam os núcleos múltiplos, imaginar as máquinas que inauguraram a informática é uma tarefa ainda mais complicada.
Você sabia que no início da década de 1950 já existiam computadores? Logicamente eles não se apareciam nem um pouco com o que temos hoje, mas já realizavam alguns cálculos complexos em pouquíssimo tempo. Nesses 60 anos, elementos desapareceram, componentes foram criados e parece até que estamos falando de assuntos totalmente desconexos.
Então prepare-se para conhecer um pouco mais sobre essa magnífica história. Para facilitar a leitura, atendemos às divisões de alguns autores especializados no assunto e separamos a história da informática em gerações. Agora aproveite para aprender mais ou para conhecer a importante evolução dos computadores.

As gigantes válvulas da primeira geração

Imagine como seria sua vida se você precisasse de uma enorme sala para conseguir armazenar um computador. Logicamente isso seria impossível, pois os primeiros computadores, como o ENIAC e o UNIVAC eram destinados apenas a funções de cálculos, sendo utilizados para resolução de problemas específicos.
Por que problemas específicos? Os computadores da primeira geração não contavam com uma linguagem padronizada de programação. Ou seja, cada máquina possuía seu próprio código e, para novas funções, era necessário reprogramar completamente o computador. Quer mudar o problema calculado? Reprograme o ENIAC.
ENIAC e suas 18 mil válvulas
Fonte da imagem: Wikimedia Commons/Domínio Público
Esses computadores gigantescos ainda sofriam com o superaquecimento constante. Isso porque em vez de microprocessadores, eles utilizavam grandes válvulas elétricas, que permitiam amplificação e troca de sinais, por meio de pulsos. Elas funcionavam de maneira correlata a uma placa de circuitos, sendo que cada válvula acesa ou apagada representava uma instrução à máquina.
Com poucas horas de utilização, essas válvulas eram queimadas e demandavam substituição. Por isso, a cada ano eram trocadas cerca de 19 mil delas em cada máquina. Sim, 19 mil válvulas representavam mais do que o total de componentes utilizados por um computador ENIAC. Como você pode perceber, esses computadores não saíam baratos para os proprietários.

Transistores e a redução dos computadores

As gigantes máquinas não estavam sendo rentáveis, pelos constantes gastos com manutenção. A principal necessidade era substituir as válvulas elétricas por uma nova tecnologia que permitisse um armazenamento mais discreto e não fosse tão responsável pela geração de calor excessivo, evitando superaquecimentos.
Foi então que os transistores (criados em 1947 pela empresa Bell Laboratories) passaram a integrar os painéis das máquinas de computar. Os componentes eram criados a partir de materiais sólidos conhecidos como “Silício”. Exatamente, os materiais utilizados até hoje em placas e outros componentes, extraídos da areia abundante.
Transistores em 1965
Fonte da imagem: Wikimedia Commons/Hohum
Existia uma série de vantagens dos transistores em relação às válvulas. Para começar: as dimensões desses componentes eram bastante reduzidas, tornando os computadores da segunda geração cem vezes menores do que os da primeira. Além disso, os novos computadores também surgiram mais econômicos, tanto em questões de consumo energético, quanto em preços de peças.
Para os comandos desses computadores, as linguagens de máquina foram substituídas por linguagem Assembly. Esse tipo de programação é utilizado até hoje, mas em vez de ser utilizado para softwares ou sistemas operacionais, é mais frequente nas fábricas de componentes de hardware, por trabalhar com instruções mais diretas.
Em vez das 30 toneladas do ENIAC, o IBM 7094 (versão de maior sucesso dessa segunda geração de computadores) pesava apenas 890 Kg. E por mais que pareça pouco, essa mesma máquina ultrapassou a marca de 10 mil unidades vendidas.
Imagem atual de um IBM 7090
Fonte da imagem: Wikimedia Commons/David Monniaux
Curiosidade: os computadores dessa segunda geração foram inicialmente desenvolvidos para serem utilizados como mecanismos de controle em usinas nucleares. Um modelo similar pode ser visto no desenho “Os Simpsons”, mais especificamente no posto de trabalho de Homer, técnico de segurança na Usina Nuclear.

Miniaturização e circuitos integrados

A junção de vários transistores, condensados em estruturas de silício que aumentavam o poder de transmissão elétrica, foi chamada de semicondutor. Esse novo componente garantiu aumentos significativos na velocidade e eficiência dos computadores, permitindo que mais tarefas fossem desempenhadas em períodos de tempo mais curtos.
Com a terceira geração dos computadores, surgiram também os teclados para digitação de comandos. Monitores também permitiam a visualização de sistemas operacionais muito primitivos, ainda completamente distantes dos sistemas gráficos que conhecemos e utilizamos atualmente.
IBM da terceira geração
Fonte da imagem: Wikimedia Commons/Domínio Público
Apesar das facilidades trazidas pelos semicondutores, os computadores dessa geração não foram reduzidos, sendo que um dos modelos de mais sucesso (o IBM 360, que vendeu mais de 30 mil unidades) chegava a pesar mais do que os antecessores. Nessa época (final da década de 1970 e início da década de 1980) os computadores passaram a ser mais acessíveis.
Outro grande avanço da terceira geração foi a adição da capacidade de upgrade nas máquinas. As empresas poderiam comprar computadores com determinadas configurações e aumentar as suas capacidades de acordo com a necessidade, pagando relativamente pouco por essas facilidades.

Microprocessadores: o início dos computadores pessoais

Enfim chegamos aos computadores que grande parte dos usuários utiliza até hoje. Os computadores da quarta geração foram os primeiros a serem chamados de “microcomputadores” ou “micros”. Esse nome se deve ao fato de eles pesarem menos de 20 kg, o que torna o armazenamento deles muito facilitado.
Você consegue imaginar qual o componente que tornou possível essa redução das máquinas? Acertou quem disse que foram os microprocessadores. O surgimento dos pequenos chips de controle e processamento tornou a informática muito mais acessível, além de oferecer uma enorme gama de novas possibilidades para os usuários.
Em 1971, já eram criados processadores com esse novo formato, mas apenas na metade da década começaram a surgir comercialmente os primeiros computadores pessoais. Os Altair 880 podiam ser comprados como um kit de montar, vendidos por revistas especializadas nos Estados Unidos. Foi com base nessa máquina que Bill Gates e Paul Allen criaram o “Basic” e inauguraram a dinastia Microsoft.

A importância da Apple

Na mesma época, os dois Steves da Apple (Jobs e Wozniac) criaram a empresa da Maçã para se dedicarem a projetos de computação pessoal facilitados para usuários leigos. Assim surgiu o Apple I, projeto que foi primeiramente apresentado para a HP. Ele foi sucedido pelo Apple II, após uma injeção de 250 mil dólares pela Intel.
Apple II, sucesso absoluto
Fonte da imagem: Musée Bolo
Essa segunda versão dos computadores possuía uma versão modificada do sistema BASIC, criada também pela Microsoft. O grande avanço apresentado pelo sistema era a utilização de interface gráfica para alguns softwares. Também era possível utilizar processadores de texto, planilhas eletrônicas e bancos de dados.
Essa mesma Apple foi responsável pela inauguração dos mouses na computação pessoal, juntamente com os sistemas operacionais gráficos, como o Macintosh. Pouco depois a Microsoft lançou a primeira versão do Windows, bastante parecida com o sistema da rival.

E os ciclos tornam-se clocks

Até a terceira geração dos computadores, o tempo de resposta das máquinas era medido em ciclos. Ou seja, media-se um número de ações em curtos períodos de tempo para que fosse possível saber qual fração de segundo era utilizada para elas. Com os microprocessadores, já não era viável medir as capacidades dessa forma.
Por isso surgiram as medidas por clocks. Esta definição calcula o número de ciclos de processamento que podem ser realizados em apenas um segundo. Por exemplo: 1 MHz significa que em apenas um segundo é possível que o chip realize 1 milhão de ciclos.
Grande parte dos computadores pessoais lançados nessa época eram alimentados por processadores da empresa Intel. A mesma Intel que hoje possui alguns dos chips mais potentes, como o Intel Core i7 (sobre o qual falaremos mais, em breve). Como você pode saber, estas máquinas são muito leves e puderam ser levadas a um novo patamar.

Notebooks: a quarta geração portátil

Considerando o progresso da informática como sendo inversamente proporcional ao tamanho ocupado pelos componentes, não seria estranho que logo os computadores transformassem-se em peças portáteis. Os notebooks surgiram como objetos de luxo (assim como foram os computadores até pouco mais de dez anos), sendo caros e de pouca abrangência comercial.
Notebooks cada vez mais poderosos
Fonte da imagem:divulgação/Asus
Além dos notebooks, temos também os netbooks disponíveis no mercado. Estes funcionam de maneira similar aos outros, mas geralmente possuem dimensões e configurações menos atraentes. Ganham pontos pela extrema portabilidade e duração das baterias utilizadas, sendo certamente um degrau a mais na evolução dos computadores.
Hoje, o preço para se poder levar os documentos, arquivos e programas para todos os lugares não é muito superior ao cobrado por desktops. Mesmo assim, o mercado ainda está longe de atingir o seu ápice. Quem sabe qual será o próximo passo da indústria?

Múltiplos núcleos: a quinta geração?

Ainda estamos em transição de uma fase em que os processadores tentavam alcançar clocks cada vez mais altos para uma fase em que o que importa mesmo é como podem ser melhor aproveitados esses clocks. Deixou de ser necessário atingir velocidades de processamento superiores aos 2 GHz, mas passou a ser obrigatório que cada chip possua mais de um núcleo com essas frequências.
Chegaram ao mercado os processadores que simulavam a existência de dois núcleos de processamento, depois os que realmente apresentavam dois deles. Hoje, há processadores que apresentam quatro núcleos, e outros, utilizados por servidores, que já oferecem oito. Com tanta potência executando tarefas simultâneas, surgiu uma nova necessidade.

Processamento verde

Sabe-se que, quanto mais tarefas sendo executadas por um computador, mais energia elétrica seja consumida. Para combater essa máxima, as empresas fabricantes de chips passaram a pesquisar formas de reduzir o consumo, sem diminuir as capacidades de seus componentes. Foi então que nasceu o conceito de “Processamento Verde”.
Por exemplo: os processadores Intel Core Sandy Bridge são fabricados com a microarquitetura reduzida, fazendo com que os clocks sejam mais curtos e menos energia elétrica seja gasta. Ao mesmo tempo, esses processos são mais eficazes. Logo, a realização de tarefas com esse tipo de componente é boa para o usuário e também para o meio ambiente.
Sandy Bridge, da Intel
Fonte da imagem: divulgação/Intel
Outro elemento envolvido nessas conceituações é o processo de montagem. As fabricantes buscam, incessantemente, formas de reduzir o impacto ambiental de suas indústrias. Os notebooks, por exemplo, estão sendo criados com telas de LED, muito menos nocivos à natureza do que LCDs comuns.
.....
Não sabemos ainda quando surgirá a sexta geração de computadores. Há quem considere a inteligência artificial como sendo essa nova geração, mas também há quem diga que robôs não fazem parte dessa denominação. Porém, o que importa realmente é perceber, que ao longo do tempo, o homem vem trabalhando para melhorar cada vez mais suas máquinas.
Quem imaginava, 60 anos atrás, que um dia seria possível carregar um computador na mochila? E quem, hoje, imaginaria que 60 anos atrás seria necessário um trem para carregar um deles? Hoje, por exemplo, já existem computadores de bolso, como alguns smartphones que são mais poderosos que netbooks.
E para você, qual será o próximo passo nessa evolução das máquinas? Aproveite os comentários para dizer o que você pensa sobre essas melhorias proporcionadas ao longo de décadas

quarta-feira, 30 de março de 2011


O que é memória ROM?

Saiba quais são as características da memória ROM, essencial para o funcionamento de computadores, smartphones e outros eletrônicos
!


Chip de memória ROM
Fonte da imagem: Novo PC
A memória é essencial para o ser humano. Quem já assistiu à comédia “Como se Fosse a Primeira vez” pôde sentir um pouquinho do drama que seria ter as lembranças apagadas periodicamente. No filme, o médico veterinário Henry precisa reconquistar Lucy todos os dias de sua vida. Pode parecer romântico, mas o motivo é mais grave, já que Lucy perdeu a capacidade de memorizar informações novas depois de ter sofrido um acidente.
Para o computador, a capacidade de memorizar informações também é essencial e, por isso, as máquinas costumam ter diversos dispositivos de armazenamento de dados. Um deles é o disco rígido, também chamado de HD. Nele são guardados os arquivos de fotos, de músicas e de softwares, que estão sempre à disposição do usuário.
Outra forma de armazenar dados no computador é por meio da Random-Access Memory (RAM). Sem ela, o computador nem chega a completar o processo de boot, por exemplo.
Placas de memória RAM
Fonte da imagem: Techfuels
Usamos a memória RAM para guardar dados temporariamente, como os programas que estão em execução na máquina. Mas por causa da volatilidade da RAM, não podemos usá-la para armazenar arquivos importantes, que gostaríamos de acessar frequentemente, já que o conteúdo da memória é esvaziado cada vez que o computador é desligado.
Portanto, se usássemos a RAM no lugar do HD, teríamos uma tarefa extra, similar à do protagonista de “Como se fosse a primeira vez”: reinserir, periodicamente, os mesmo dados que foram perdidos.
Mas existem dados que são importantes demais para o funcionamento da máquina e, portanto, não poderiam ficar no disco rígido, pois poderiam ser apagados por engano. E não poderiam ficar na RAM, pois seriam dizimados a cada reinicialização do computador.
Para casos como esses, existe a Read-Only Memory (ROM), que em português quer dizer “Memória de Apenas Leitura”.

O que é a ROM?

Aqueles que nunca ouviram falar da ROM certamente conhece um primo próximo desse tipo de memória, o CD-ROM, uma mídia ótica que permite apenas a leitura de dados. Ou seja, você não pode gravar arquivos em um CD-ROM, apenas executar ou visualizar o que já estiver nele.
Basicamente, essa é a função da memória ROM: oferecer dados apenas para leitura. Normalmente, a ROM é utilizada para armazenar firmwares, pequenos softwares que funcionam apenas no hardware para o qual foram desenvolvidos e que controlam as funções mais básicas do dispositivo.
Na ROM de uma calculadora, por exemplo, podemos encontrar as rotinas matemáticas que o estudante pode realizar ao usá-la. Já no caso de celulares, normalmente as ROMS carregam o sistema operacional e os softwares básicos do aparelho.

Tipos de ROM

Mask-ROM

Mask-ROM

As primeiras ROMs a serem desenvolvidas são as chamadas Mask-ROM, e são nada mais do que circuitos integrados que guardam o software ou os dados gravados durante a sua criação. Podemos compará-las com os CD-ROMs: o usuário acessa aquilo que comprou e não pode gravar outros dados na mídia ou chip.

PROM

Com o passar do tempo, foram necessárias memórias similares, mas que possibilitassem a inserção posterior de dados. A primeira dessa nova leva foi a Programmable Read-Only Memory (PROM), que permite que o conteúdo seja modificado por meio de um dispositivo conhecido como programador PROM.
Chip PROM
Fonte da imagem: Wikipedia
Porém, como o programador PROM altera fisicamente as ligações internas do chip, essa inserção pode acontecer apenas uma vez. Esse tipo de ROM pode ser encontrado em consoles de video games e em aparelhos de celulares. Além disso, podemos comparar a PROM com o CD gravável (CD-R), que também suporta apenas uma gravação.

EPROM

Outro tipo muito usado é o Erasable Programmable Read-Only Memory (EPROM). A grande inovação da EPROM é permitir a regravação de dados. O conteúdo do chip pode ser apagado expondo-o à luz ultravioleta por cerca de 10 minutos. Já o processo de reescrita dos dados requer uma voltagem cada vez maior e, com isso, a número de reprogramações acaba sendo limitado.
Chip EPROM
Fonte da imagem: Wikipedia

EEPROM

Um tipo mais recente é a Electrically Erasable Programmable Read-Only Memory (EEPROM) que, como o próprio nome indica, permite que os dados sejam apagados e gravados com o uso de eletricidade. Assim, é possível atualizar o firmware de uma câmera ou de um MP3 Player de maneira muito mais prática, sem precisar remover o chip ROM de dentro do aparelho.
Os modelos mais comuns de EEPROM são a EAROM, que permite a alteração de um bit por vez do seu conteúdo, e a Flash Memory, que pode ter seu conteúdo alterado de forma muito mais rápida, além de durar muito mais, possibilitando mais de 1 milhão de ciclos de reprogramação.
Continuando a ideia de relacionar os tipos de ROM com as mídias óticas, podemos comparar tanto a EPROM quanto a EEPROM com os CDs regraváveis (CD-RW).

...

Esperamos que este texto tenha solucionado suas dúvidas sobre a ROM, esse tipo de memória indispensável para o bom funcionamento dos dispositivos eletrônicos que tanto amamos. Não deixe de consultar outros artigos sobre hardware aqui mesmo, no TecMundo!

segunda-feira, 21 de março de 2011


Rolltop: o computador dobrável

Um belo conceito de um computador portátil, dobrável, com visual incrível e ótimos recursos
.


Há um ano você conheceu o “Laptop do futuro”, um notebook-conceito alemão que podia ser enrolado e levado para qualquer lugar sem problemas. Grande apelo estético acompanhado de ótimos recursos técnicos, este computador era o Rolltop, que, mesmo sendo conceito, acaba de ganhar uma atualização.
Ele se assemelha a um pincel em forma de rolo quando está dobrado. Para assumir esta forma, ele precisa ser enrolado tal qual este tipo de pincel. Quando desenrolado, o Rolltop oferece uma tela com um bom tamanho, de 17 polegadas, e sensível ao toque.
O núcleo, onde o computador é enrolado, conta com uma fonte de energia, alto-falante, webcam, portas USB e muito mais. Mais informações você encontra no site oficial do Rolltop.


Pesquisador afirma que chip defeituoso pode ser mais eficiente

Mesmo com erros, microchips com peças a menos podem apresentar um consumo de energia menor.

Chips defeituosos podem ser mais eficientes?
O pesquisador Krishna Palem, da Rice University, apresentou um resultado final polêmico em uma de suas pesquisas. Segundo ele, microchips defeituosos ou com alguns componentes a menos, podem ser mais eficientes, consumindo menos energia, e se apresentando menores e mais rápidos.
Mesmo apresentando erros, segundo Palem o hardware inexato e repleto de erros pode ter até o dobro de eficiência de uma peça padrão. O segredo é a remoção de componentes que não tenham relação direta com o propósito da máquina.
Um exemplo: num chip de uma câmera fotográfica, os componentes relacionados ao fone de ouvido não são tão necessários. Dessa forma, retirando-os, o chip vai funcionar com erros, mas vai funcionar. E, com o hardware direcionado, as chances de o produto se tornar mais eficaz aumentam.
A pesquisa, por enquanto, é apenas uma tese de um grupo de pesquisadores liderados por Palem. Ainda neste ano eles pretendem colocar em prática a teoria, ampliando os testes iniciais e criando um chip específico.

sexta-feira, 18 de março de 2011


PS Square: portátil reúne vários dispositivos em 1 só

Dispositivo tem aparência de um tablet, botões de PlayStation, teclado QWERTY e visor ultrafino.

Desenvolvido pelo designer Hirotaka Matsui, o novo conceito para Sony chamada PS Square é apresentado em um formato angular, remetendo à imagem de um pequeno tablet com teclado QWERTY, tela LCD superfina e os botões direcionais característicos do videogame PlayStation.
O dispositivo foi criado para ilustrar um vídeo da Freescale Semiconductor – empresa líder no setor de microcontroladores, microprocessadores e semicondutores manufaturados –, mostrando como vários aparelhos utilizados pelas pessoas durante o dia podem ser reunidos em um só objeto, sem perder a qualidade de uso.
Dentre as diversas atividades que você pode realizar com um PS Square, estão a possibilidade de visualizar vídeos em HD, função e-reader, visor com suporte multitouch, interação com os dispositivos presentes no ambiente e muito mais.

quarta-feira, 16 de março de 2011


Mito ou verdade: internet wireless é pior que conexões a cabo?

Vale a pena investir na passagem de cabos ou uma conexão sem fio dá conta do recado
?



O aumento da disponibilidade de conexões sem fio nos últimos anos foi algo que mudou bastante a forma como usamos a internet. Não só foi possível dizer adeus às limitações em relação ao lugar em que o computador deve ficar, como se tornou mais prático acessar a rede a partir de dispositivos como smartphones ou video games portáteis.
Infelizmente, toda essa praticidade veio acompanhada de alguns problemas típicos da tecnologia usada. Instabilidade de sinal, perda de velocidade e interferência de outros aparelhos que usam frequências eletromagnéticas são só alguns dos obstáculos que usuários de rede sem fio enfrentam diariamente. Isso sem contar com as tão exploradas falhas de segurança.
O fato é que, apesar de toda a vantagem que apresentam, as conexões sem fio ainda perdem feio para aquelas que usam cabos quando o assunto é velocidade e estabilidade. Os motivos são variados, incluindo as limitações dos aparelhos roteadores, obstáculos que estejam no caminho e a distância entre o usuário e a fonte do sinal.

Velocidade limitada

O principal motivo que explica a menor velocidade obtida pelas conexões sem fio está relacionado às limitações de transmissão de banda da tecnologia atual. Enquanto o padrão 802.11b suporta uma velocidade máxima teórica de 11 MB/s, o padrão 802.11g suporta até 54 MB/s – nada perto dos 100 MB/s alcançados pelas redes a cabo mais modernas.
Como a velocidade teórica de transmissão de sinais raramente é alcançada em ambientes domésticos, a menor velocidade se torna inevitável. Em um domicílio em que há um computador conectado à internet através de cabos e outro que usa a mesma conexão distribuída por um roteador Wi-Fi, o primeiro sempre terá desempenho melhor.
Isso sem contar com a deterioração dos sinais, que são enviados de maneira menos direta através da conexão Wi-Fi. Isso não só faz com que se perca grande quantidade de dados durante a transmissão, como torna a distância um fator muito importante na hora de determinar a velocidade de conexão.
Quanto mais distante o usuário estiver da fonte geradora do sinal, maiores os problemas enfrentados. Além do sinal se deteriorar normalmente em ritmo rápido, há de se levar em conta a presença de obstáculos como paredes e obstáculos que tornam ainda mais veloz esse processo. Algo que, obviamente, não acontece na conexão por cabos, que permanecem sempre à mesma distância do computador.

Interferências dos mais diversos tipos

Outro problema enfrentado pelas conexões sem fio que inexiste nas conexões por cabo é a interferência de outros aparelhos que usam ondas eletromagnéticas para funcionar. Como não há um padrão que determine frequências de transmissão específicas para cada tipo de dispositivo, não é raro possuir em casa algum aparelho que opera em 2.4 GHz, padrão usado pelas redes wireless.

Quando dois ou mais campos magnéticos operando na mesma frequência estão na mesma área, ocorre a interferência. Os efeitos são variados, mas normalmente ocasionam menor velocidade de transmissão de dados ou até mesmo a queda temporária da conexão – situação bastante desagradável durante um download ou exibição de conteúdo por streaming, por exemplo.
Os maiores vilões dessa história são telefones sem fio e aparelhos micro-ondas. Enquanto os primeiros normalmente operam em frequências de 900 MHz, não é difícil encontrar aparelhos com frequência de 2,4 GHz sendo vendidos em grandes lojas. Os fornos de micro-ondas também operam na mesma frequência e, embora tenham proteções que evitam a emissão de sinais, a quantidade que vaza é suficiente para interferir em conexões Wi-Fi.
Mais detalhes sobre os fatores que influenciam na transmissão de conexões sem fio podem ser conferidos no artigo “Mito ou verdade: aparelhos sem fio podem derrubar a internet wireless?”. Clique aqui para acessar.

Não entre em pânico

Apesar de todos os elementos que afetam a velocidade das conexões sem fio, não é preciso entrar em pânico e começar a espalhar vários cabos pela casa. Apesar de pesquisas que indicam que redes Wi-Fi possuem em geral 30% a menos de velocidade, quem usa esse tipo de conexão para tarefas comuns não tem nada com que se preocupar.
Quando o assunto é baixar arquivos, conversar em mensageiros instantâneos ou navegar pelo CultDigital, conexões wireless dão conta do recado muito bem. Porém, quem usa serviços que requerem mais da banda disponível, como conferências por VoIP ou jogos em rede, deve pensar seriamente em se conectar usando cabos na hora de realizar tais tarefas.
A questão principal na hora de usar uma conexão wireless ou a cabo é a seguinte: vale mais a pena ter uma conexão rápida, mas com limites severos de movimentação, ou compensa perder um pouco de velocidade para ter mais liberdade na hora de definir o local em que a conexão é estabelecida? Isso é algo que cabe a cada usuário definir baseado em seu dia a dia.

terça-feira, 15 de março de 2011


O que o computador faz enquanto você espera que ele faça alguma coisa

Às vezes você não está fazendo nada, mas o PC fica lerdo. Entenda alguns dos motivos para esta lentidão
.

Você já deve ter passado por isto: lendo na internet ou editando textos no Word e, sem nenhum motivo aparente, o computador ficou lento. Nenhum programa muito pesado está aberto, as páginas que você visita não carregam plugins como Java ou Flash, mas o PC chega a dar pequenas travadas.
Pode não parecer, mas enquanto o computador “não faz nada”, ele acaba fazendo muitas coisas. Além disso, outros problemas são os programas que rodam “escondidos”, exigindo recursos do sistema sem que possam ser percebidos (a não ser pela lentidão que ocorre ocasionalmente).

Entendendo o problema

Um pouco de cuidado pode ajudar seu PC a não ficar tão lento
O processador trabalha para trazer e levar informação pelo sistema. Ele acessa conteúdo presente no cache (espaço para armazenamento interno do CPU) e na memória do sistema. Caches são dispositivos presentes em hardwares e softwares (como navegadores) que guardam informações para serem acessadas posteriormente de forma mais rápida.
A memória cache serve justamente para que em alguns casos o processador não precise recorrer à memória RAM, aumentando a lentidão dos acessos e do sistema. Se a informação necessária está no cache, o processador leva pouco tempo para encontrá-la, mas se for preciso acessá-la em outro local, o tempo de acesso é maior.
O problema é que a capacidade de armazenamento das memórias acopladas a um processador não são muito grandes, o que limita bastante as informações que podem ser rapidamente acessadas por ele.

As causas da lentidão

Acesso ao disco rígido

Muitos programas trabalham silenciosamente e deixam o computador mais lento. Se algum software está indexando arquivos (como gerenciadores de arquivos de áudio, vídeo ou imagem), pesquisando no sistema ou varrendo os discos atrás de arquivos problemáticos (como é o caso de aplicativos antivírus e limpadores), muitos acessos ao HD são realizados em sequência.
Como as informações estão no disco rígido, o tempo de acesso é muito maior. E devido ao fato de serem realizados inúmeros acessos sequencialmente, o computador corre o risco de ficar lento, atrapalhando o que você está fazendo e também atrasando o final das tarefas do aplicativo em questão (antivírus, limpador, indexador etc.).
Outro problema relacionado ao disco rígido e que pode ser causa de lentidão é a fragmentação dos dados. Com os arquvios fragmentados, a cabeça de leitura (responsável pela busca, leitura e escrita de arquivos no HD) precisa se movimentar mais para encontrar os dados, ou seja, mais trabalho e lentidão.

Excesso de processos abertos

Em outras ocasiões não há programas realizando verificações na máquina, mas ela também fica lenta. O motivo aqui pode ser um grande número de processos funcionando simultaneamente e, vale considerar, muitos rodando sem necessidade. Programas como antivírus, que monitoram o computador em tempo real, consome recursos do sistema, porém, são indispensáveis.
Aplicativos marcados para encontrar atualizações automaticamente também podem ter processos funcionando exclusivamente para isto, o que faz com que funcionem o tempo todo, consumam recursos desnecessariamente e causem lentidão. Estes programas provavelmente não têm um ritmo de atualização constante como o dos antivírus, ou seja, podem perfeitamente ter este recurso de upgrade automático desativado.
É importante sempre conferir o Gerenciador de processos do Windows (atalho Ctrl + Shift + Esc) e verificar se muitos processos rodam sem necessidade ou escondidos, como normalmente é o caso de atualizadores e outros aplicativos dispensáveis que podem causar lentidão.

Sobrecarga na memória RAM

A memória RAM armazena dados para tornar mais ágil o acesso a alguns conteúdos do computador. Ela guarda informações de forma não permanente, ou seja, é “formatada” sempre que o PC é reiniciado. Supondo que a máquina esteja ligada há algum tempo, com vários programas abertos e já encerrados, é possível que um grande volume de dados já tenha preenchido boa parte da capacidade disponível de RAM.
Desta forma, quando são iniciados, aplicativos que consomem pouca memória podem encontrar problemas, mesmo que os “comilões” de RAM já tenha sido fechados. Para solucionar este tipo de problema você pode reiniciar a máquina ou, algo bem mais simples, usar programas como RAM Idle LE, RAMRush ou RAMBooster.
Mais uma vez você pode acessar o Gerenciador de processos do Windows e verificar quais programas são os maiores consumidores de memória RAM.

Superaquecimento do processador

CPU em chamas

Outro problema sério e que causa lentidão e travamento do computador é o superaquecimento do processador. Coolers defeituosos, pastas térmicas aplicadas de modo equivocado e sobrecarga da CPU podem resultar em altas temperaturas que causam, inclusive, o reinicio da máquina.
Para evitar que o dispositivo seja sobrecarregado é preciso ficar atento a processos rodando inutilmente, pois isto faz com que o processador funcione no limite por muito tempo.
Lembre-se sempre de verificar o gerenciador de tarefas e de notar se a sua máquina suporta a execução de aplicativos para não ter problemas mais graves.



Seria o fim dos mouses?

Gadget reproduz virtualmente o mouse, tendo suporte a gestos multitouch e conectividade Bluetooth. Fabricante afirma que o dispositivo pode reduzir lesões por esforço repetitivo.

Há alguns dias, o Baixaki publicou o artigo “Métodos bizarros para controlar o computador”, tratando sobre o desenvolvimento de tecnologias que podem tornar alguns periféricos obsoletos. Neste segmento, a empresa Celluon criou um equipamento que projeta lasers na mesa, simulando um mouse.
O evoMouse, como foi batizado o aparelho, opera em qualquer superfície plana e exige pouco espaço na mesa. O gadget reproduz os mesmo movimentos que um mouse comum: direciona o cursor, clica (inclusive com suporte a duplo clique), seleciona e arrasta objetos virtuais.
Outros diferenciais da novidade são a sua compatibilidade com a função multitouch e o reconhecimento de escrita. O software do dispositivo consegue “ler” textos escritos dentro do seu campo de atuação. Sua conectividade é garantida por uma porta USB ou tecnologia Bluetooth.

segunda-feira, 14 de março de 2011


Que tal baixar arquivos a 8,8 Tbps?

Organização pesquisa formas de melhorar o desempenho das redes de dados norte-americanas. Segundo a empresa, seria possível alcançar taxas elevadíssimas de transferência
.



Internet2, grupo de pesquisa e educação, está desenvolvendo mecanismos para aprimorar os backbones (sistemas de comunicação de dados com elevado desempenho) dos EUA, os quais resultariam em estruturas que suportam taxas de transferência de até 8,8 terabits por segundo!
O projeto pretende ligar o US Unified Community Anchor Network (central de estudos relacionados à internet) a mais de 200 mil instituições, incluindo escolas, bibliotecas, clínicas e hospitais espalhados pelo país. Em 2010, a pesquisa recebeu US$ 62 milhões do governo para que saia do papel.
O plano dos pesquisadores é criar uma série de ferramentas de comunicação avançada que auxiliem a prática da telemedicina e dos cursos de ensino à distância. De acordo com a Internet2, as bandas comerciais estão cada vez mais congestionadas e não são aperfeiçoadas para atingir o patamar desejado pelas atividades acima citadas. Fica a pergunta: se uma rede para uso do governo alcança taxas tão elevadas, as redes privadas poderiam atingir os mesmos valores?

sábado, 12 de março de 2011


Menor câmera do mundo pode filmar dentro do corpo humano

Dispositivo foi desenvolvido na Alemanha e tem cerca de 1 milímetro cúbico de tamanho.

Menor câmera do mundo pode filmar dentro do corpo humano
Fonte da imagem: Instituto Fraunhofer
O Instituto Fraunhofer, em colaboração com a Awaiba GmbH, desenvolveu uma nanocâmera que vai ser de grande utilidade para substituir fibras óticas na filmagem interna do corpo humano. O dispositivo tem apenas 1 milímetro cúbico e gera imagens com a incrível resolução de 62,5 megapixels.
Outro ponto bastante interessante, além do tamanho, é que as câmeras serão baratas o suficiente para serem descartáveis. Ou seja, os equipamentos terão uso único, o que diminui o risco de contaminação dos pacientes que fizerem uso dele. De acordo com o Instituto Fraunhofer, é possível que estas câmeras minúsculas estejam disponíveis para uso no próximo ano


Preços de chips de memória podem saltar com terremoto no Japão

Fábricas como a Toshiba e a Samsung tiveram de fechar suas fábricas devido ao desastre
.


 (Fonte da imagem: Wikipedia)
Reuters. Por Paul Sandle - Os preços à vista para chips de memória flash usados em smartphones e tablets podem aumentar com o terremoto no Japão, embora o impacto no fornecimento global deva ser limitado, afirmou um analista.
A Toshiba, segunda maior fabricante de chips de memória flash NAND, atrás da Samsung, fechou suas fábricas após o devastador terremoto e a tsunami nesta sexta-feira.
Sua fábrica em Iwate, a mais perto do local do terremoto, fabrica microcontroladores, mas a companhia não tem ainda nenhuma informação sobre possíveis danos, afirmou um porta-voz.
A principal fábrica produtora de chips NAND fica mais ao sul da costa, em Yokkaichi, próxima de Tóquio, e provavelmente não foi gravemente afetada, segundo ele.
O analista Andrew Norwood, do Gartner, afirmou que o terremoto e a tsunami podem afetar os preços à vista, mas não devem ter impacto de longo prazo no mercado.
"Particularmente o mercado à vista tende a reagir com selvageria a qualquer tipo de incerteza ou dúvida", disse.
A Sony fechou seis fábricas, duas em Fukushima e quatro em Miyagi, incluindo uma responsável por produzir laser de diodo usados em players de DVDs, Blu-rays, CD ROMs e Playstations. A Panasonic interrompeu a produção.
O analista Mark Harding, do Maxim Group em Nova York, afirmou que o terremoto claramente terá um impacto negativo na Sony, embora seja cedo para dizer qual será a extensão dos danos.
"Mas esse momento é tipicamente o mais fraco em termos de consumo", afirmou.


DVD pirata no Brasil custa o preço de um original nos EUA

Estudo feito por instituto norte-americano mostra que impacto da compra de DVDs para o brasileiro pesa muito mais no bolso do que para um estadunidense
.


Preço dos produtos no Brasil ainda está acima do aceitável
Dados publicados pelo SSRC – sigla americana para Conselho de Pesquisa em Ciências Sociais – apontam que o brasileiro paga por um DVD pirata o mesmo valor que pagaria por um produto original caso morasse nos Estados Unidos.
A conclusão é parte do estudo intitulado “Media Piracy in Emerging Economies” – Pirataria em mercados emergentes, em tradução livre – e levou em consideração valores de mercado praticados em 2008.
Para que os valores representassem exatamente o padrão econômico do brasileiro, os preços dos produtos sofreram reajustes e foram analisados tomando como base o impacto de cada um deles no orçamento. Assim, um DVD de US$ 3,50, por exemplo, teve o custo ajustado para US$ 20.
Ou seja, enquanto um norte-americano compra um DVD original por US$ 24, o brasileiro precisaria gastar US$ 20, quase o mesmo valor, para adquirir um produto pirata. Assim como o Brasil, Rússia e África do Sul também apresentaram índices semelhantes.
A pesquisa também levou em consideração o preço de softwares. Em 2009, o Microsoft Office 2007: Home and Student custava US$ 149 nos EUA. Analisando-se o poder de compra do usuário brasileiro, o impacto no orçamento para comprar o mesmo produto por aqui seria de US$ 621.
A pesquisa do SSRC conta com o apoio do Instituto Overmundo e do Centro de Tecnologia e Sociedade da FGV. O relatório final cita ainda alguns sites e serviços que contribuem para a pirataria no Brasil, como a extinta comunidade “Discografias”, do Orkut, e os sites legendas.tv e InSubs.

sexta-feira, 11 de março de 2011


Em competição de hackers, Safari e Internet Explorer já foram invadidos

Vencedores levam computador e prêmio em dinheiro. Google paga ainda mais para impulsionar invasão ao Chrom
e





Em 2010, competidores também não conseguiram explorar com sucesso as falhas do Chrome. (Fonte da imagem: MyGadgetNews)
A competição Pwn2Own começou a dar seus primeiros resultados. O evento reúne diversos hackers e pesquisadores, com o objetivo de explorar falhas na segurança de navegadores  para reforçar a segurança dos produtos e premiar os vencedores. Os quatro aplicativos mais utilizados no mercado são testados pelos competidores em máquinas especificadas pelos juízes.
O Safari foi o recordista da edição deste ano, mas de forma negativa: em apenas cinco segundos, a equipe de pesquisadores da empresa VUPEN conseguiu entrar no sistema do navegador, utilizando um Macbook Air. A conquista rendeu ao time o próprio computador do torneio e o prêmio de 15 mil dólares em dinheiro.
Em sua oitava edição, o Internet Explorer também não conseguiu resistir. O vencedor foi o irlandês Stephen Fewer, que utilizou um computador com Windows 7 para burlar o Modo de Segurança da máquina e controlar inteiramente o navegador através de três vulnerabilidades. O prêmio foi um notebook e a mesma quantia em dinheiro conquistada pelos hackers do Safari.
Os detalhes técnicos sobre a operação realizada por Fewer só serão divulgados após a Microsoft realizar uma atualização em seu programa para corrigir as falhas encontradas.
Para proteger o Firefox, a Mozilla realizou uma atualização no navegador dias antes da competição. Como recompensa, nenhum resultado negativo até agora. Já a Google foi mais audaciosa: decidiu pagar 20 mil dólares para quem conseguir hackear o Google Chrome. Nenhum progresso foi registrado até agora, portanto o prêmio pode ficar sem dono.
A Pwn2Own faz parte do CanSecWest 2011, conferência sediada em Vancouver, no Canada, que concentra várias palestras e exposições sobre segurança digital aplicada. As tentativas valendo os prêmios vão até amanhã. Além dos navegadores, alguns modelos portáteis também estão passando por testes.


Celulares dual-chip são os preferidos de 22% dos jovens brasileiros

Possibilidade de contratar mais de uma operadora de telefonia atrai jovens para os celulares com suporte a dois chips
.

Pesquisa da Nielsen
Fonte da imagem: Nielsen
Você sabia que um em cada cinco usuários brasileiros (com idades entre 15 e 24 anos) possui telefone celular com suporte para a utilização de dois chips? É o que afirma o estudo da Nielsen (empresa especializada em pesquisas de mercado), realizado com 5 mil jovens brasileiros, distribuídos em dez capitais do país.
Entre os países pesquisados pela Nielsen, o Brasil é o segundo no ranking de jovens com aparelhos de dois chips. Com os já citados 22%, o país fica atrás apenas da Itália, onde 29% dos jovens opta pelo mesmo tipo de aparelho.
Com base neste mesmo grupo de consumidores brasileiros, 90% dos jovens prefere utilizar celulares pré-pagos e 31% escolhe o aparelho utilizando preço como fator diferencial. Tudo isso prova algo que muitos já sabiam: boa parte dos usuários brasileiros opta por assinar planos de mais de uma operadora, aproveitando promoções de minutos grátis, por exemplo.


Leia mais no Baixaki: http://www.baixaki.com.br/tecnologia/9004-celulares-dual-chip-sao-os-preferidos-de-22-dos-jovens-brasileiros.htm#ixzz1GI5XCFih

Asus All-in-One ET2700: "tudo em um" e sensível ao toque

Monitor controlado pelos dedos reúne um computador em uma peça e elimina a necessidade de utilizar CPU




A Asus mostrou ao mundo no CeBIT deste ano um novo produto que reúne várias funções em uma só peça. O Asus All-in-One ET2700 é o protótipo de um computador que funciona com todos os dispositivos centralizados no monitor, que, por sua vez, é uma tela de 27 polegadas sensível ao toque.
Precedido pelo lançamento do modelo da HP também sensível ao toque – o TouchSmart 2 – e esteticamente inspirado nos produtos da Apple, este computador possui um monitor que pode ser girado 178 graus, permitindo vários ângulos de visão diferentes – vertical e horizontalmente. Esta tela possibilita que o usuário interaja diretamente com as figuras apresentadas apenas com o toque dos dedos, podendo utilizar todos eles ao mesmo tempo.
yeah!
Fonte da imagem: Engadget
Informações sobre o valor do produto ainda não foram reveladas, e não há previsão para novos anúncios em relação ao preço nas próximas semanas. No início deste texto, você confere um vídeo que mostra mais detalhes a respeito das funcionalidades do novo Asus All-in-One ET2700.

quarta-feira, 9 de março de 2011


Veja como são produzidos os processadores

Conheça o processo, curiosidades e explicações das próprias fabricantes a respeito dos mistérios que residem no interior dos cérebros dos computadores
.

Eles estão presentes em todos os desktops, notebooks, netbooks e muitos eletrônicos que já estão aderindo à inteligência avançada para processamento de dados. Sim, estamos falando dos processadores, os responsáveis pela mágica que move o mundo de diversas formas.
Apesar de conhecermos um pouco sobre eles, o máximo que temos noção diz respeito à velocidade, ao modelo comercial, socket e detalhes que realmente são de alguma forma úteis no cotidiano. No entanto, como será que as fabricantes desenvolvem tais componentes? De onde vem o material utilizado para a construção de uma CPU? Quantas pequenas peças tem um processador?
Estas e outras perguntas serão respondidas neste artigo, que visa mostrar a alta complexidade da fabricação dos processadores, através da simplicidade das imagens, vídeos e respostas rápidas que preparamos para você. No entanto, antes de entrar nesses méritos, vale uma retrospectiva e uma observação especial nas curiosidades destes cérebros digitais.
Curiosidades

Os átomos dos computadores

Você já deve conhecer o átomo. A menor partícula da matéria. Os processadores também possuem átomos, porém na construção dos processadores os cientistas não conseguem manipular elementos tão ínfimos. Sendo assim, o que consideramos como átomos são os transistores, pequenos componentes presentes em quaisquer aparelhos eletrônicos.
Basicamente, os transistores são os únicos componentes inteligentes na eletrônica (considerando apenas os de funções básicas). A diferença entre eles e os resistores, capacitores e indutores, está na tarefa executada. Enquanto os demais itens manipulam a energia elétrica de forma simples, os transistores aproveitam-na para funcionar como interruptores e amplificadores.
Transistor de 32nm
Fonte da imagem: divulgação/Intel
Apesar da complexidade do parágrafo acima, o importante é saber que quando em conjunto, muitos transistores podem realizar tarefas complexas (execução de aplicativos e jogos avançados). E é justamente por isso que eles existem em abundância nos processadores. Como você percebeu em nosso infográfico, os primeiros processadores já contavam com milhares de transistores. Os mais evoluídos passaram para os milhões. E os atuais chegam a bilhões.
E como cabe tudo isso dentro de um espaço tão pequeno? Bom, imagine o seguinte: se em uma caixa de fósforos podemos colocar 20 palitos grandes, na mesma caixa poderíamos colocar o dobro de palitos com a metade do tamanho. Assim acontece com os transistores, para colocar mais deles em um mesmo espaço, as fabricantes reduzem o tamanho. Aliás, reduzem muito!
A diminuição de tamanho é tão grande que nem sequer podemos ver a olho nu um transistor. Eles alcançam a casa das dezenas de nanômetro, ou seja, muito mais fino que um fio de cabelo. No entanto, não é só pelo tamanho que consideram os transistores como átomos dos processadores, mas principalmente pela função realizada. Assim como os átomos são fundamentais para quaisquer seres vivos, os transistores são essenciais para o funcionamento das CPUs.
Outro aspecto importante a comentar está relacionado ao formato. Enquanto um transistor comum, em geral, tem formato quadrado e três “pernas”, os transistores construídos com nanotecnologia perdem esta característica, parecendo-se muito mais com partículas. Bom, agora que já falamos dos transistores, vale assistir a um vídeo da AMD:

A primeira etapa: diagrama dos circuitos

Antes de começar a fabricação dos processadores, os projetistas e engenheiros criam o diagrama de circuitos. Este diagrama é uma espécie de desenho que vai determinar que peça ficará em determinada posição dentro de uma CPU. Tal tarefa exige conhecimento avançado, tanto sobre os componentes existentes para a fabricação quanto sobre as tecnologias que poderão ser utilizadas.
Parte da diagramação de circuitos
Fonte da imagem: divulgação/AMD
A diagramação dos circuitos é construída em diversos locais de maneira colaborativa. Muitos estudiosos sugerem opções para a geração de um diagrama funcional e que possa oferecer alternativas mais eficientes e viáveis. Nesta primeira etapa surge a arquitetura dos processadores.
Através de muita análise, os engenheiros decidem a quantidade de memória cache, os níveis de memória, a frequência, os padrões da CPU e detalhes específicos quanto ao modo como o chip principal vai utilizar a memória cache. Claro que, a diagramação vai muito além e em geral é um processo longo. Os engenheiros precisam planejar com muita antecedência a CPU, pois ela será comercializada alguns meses (ou até um ano) depois.

Começa a fabricação: da areia para o chip

Você já reparou na quantidade de areia que existe em uma praia? Então, ela não serve apenas para fazer castelinhos, pois também tem utilidade na fabricação dos processadores. É isso mesmo: a areia é o fundamento de uma CPU e, evidentemente, após muitas transformações ela passa a ser um elemento inteligente no seu computador.
A areia tem em sua constituição 25% de silício, que por sinal é o segundo elemento mais abundante em nosso planeta. E aí é que está o segredo dos processadores. A areia, propriamente dita, não serve para a construção, no entanto o silício é um cristal excelente.
O material básico para os processadores
Fonte da imagem: divulgação/Wikimedia Commons
De onde a areia é retirada? Nenhuma fabricante relata exatamente o local de obtenção, pois nem sempre elas buscam exatamente areia comum. Segundo informação da Intel, a matéria-prima de onde retiram o silício é o quartzo. Este mineral é rico em dióxido de silício (SiO2), material que realmente é a base de tudo.
Não seria possível construir com outro elemento? Com certeza! Inclusive existem transistores constituídos de outros elementos químicos (como o Gálio, por exemplo). Todavia, as indústrias, geralmente, optam pelo silício justamente pelo baixo custo e devido à abundância deste elemento.

O silício em seu estado mais puro

Para construir um processador não basta pegar um pouco de areia e apenas extrair o silício. A fabricação de uma CPU exige um nível de pureza perfeito, algo em torno de 99,9999999%. Isso quer dizer que a cada 1 bilhão de átomos, somente um não pode ser de silício. O silício é purificado em múltiplas etapas, para garantir que ele atinja a qualidade máxima.
Processo para obter o lingote
Fonte da imagem: divulgação/Intel
Este processo de purificação é realizado através do derretimento do silício. Após atingir uma temperatura de altíssimo nível (superior ao nível de fusão), as impurezas deixam o silício isolado, de modo que o material esteja em sua forma mais natural. Ao realizar esta etapa, as fabricantes costumam criar um grande lingote (uma espécie de cilindro).

Wafers: o processador começa a tomar forma

Um lingote costuma pesar em média 100 kg, no entanto este cilindro não tem utilidade com o tamanho avantajado. Sendo assim, é preciso cortar o lingote em fatias, de modo que se obtenham pequenos discos de espessura reduzida (algo em torno de 1 mm).
Fatiando o lingote
Fonte da imagem: divulgação/Intel
Estes discos também são conhecidos como wafers. Eles possuem uma estrutura química perfeita e é onde os transistores serão encaixados posteriormente. Apesar de serem muito finos, eles não são muito pequenos. O tamanho varia conforme a fabricante, a Intel, por exemplo, utiliza wafers com 30 cm de diâmetro.
Segundo a Intel, a estratégia de utilizar discos maiores é útil para reduzir os custos de produção. Até porque, as duas maiores fabricantes de processadores (AMD e Intel) compram os wafers prontos. Após o corte dos wafers é necessário polir a superfície para obter faces tão brilhosas quanto um espelho.

Entrando nas “salas limpas”

Antes de dar continuidade ao nosso processo de construção, precisamos nos localizar. Tendo os wafers prontos, as fabricantes não podem deixar que nenhuma partícula de poeira chegue perto deles. Para isto é preciso ter um ambiente com higienização perfeita. Conhecidos como “salas limpas”, os laboratórios para fabricação de processadores são até 10 mil vezes mais limpos do que uma sala de cirurgia.
Roupas especiais para trabalhar nas salas limpas
Fonte da imagem: divulgação/Intel
Para trabalhar em um ambiente como este é preciso utilizar trajes especiais. Os trajes são tão complexos que até mesmo os funcionários das fabricantes levam alguns minutos para vestir todos os acessórios apropriados para evitar contato com os wafers.

Inserindo o desenho no wafer

Agora que os discos de silício estão em um ambiente apropriado, é necessário aplicar o processo foto-litográfico. Este processo é que vai determinar o “desenho” principal do processador. Para a realização deste passo, as fabricantes aplicam um material foto-resistente ao wafer (o material varia conforme a empresa, a AMD demonstra com um material de cor vermelha, a Intel com um de cor azul).
Material foto-resistivo aplicado ao wafer
Fonte da imagem: divulgação/Intel
Depois é aplicado luz ultravioleta para realizar a transferência do diagrama de circuitos (aquele comentado no começo do texto) para o wafer. A luz incide sobre o circuito (em tamanho grande), o qual reflete o desenho em uma lente. Esta lente vai diminuir o tamanho do circuito, possibilitando que a escala seja reduzida com perfeição para o tamanho necessário. Por fim, a luz refletida pela lente sobre o wafer fica gravada e pode-se dar continuidade ao processo.
O desenho aplicado ao wafer
Fonte da imagem: divulgação/Intel
As partes que foram expostas a luz ficam maleáveis e então são removidas por um fluído. As instruções transferidas podem ser usadas como um molde. As estruturas agora podem receber todos os minúsculos transistores.

Wafers prontos: hora de jogar os átomos

Depois que os wafers foram preparados, eles vão para um estágio onde as propriedades elétricas básicas dos transistores serão inseridas. Aproveitando a característica de semicondutor do silício, as fabricantes alteram a condutividade do elemento através da dopagem. Assim que os átomos estão dopados, eles podem ser “jogados” na estrutura do wafer.
Jogando átomos no wafer
Fonte da imagem: divulgação/Intel
Inicialmente, os átomos (carregados negativamente e positivamente, também conhecidos como íons) são distribuídos de maneira desordenada. No entanto, ao aplicar altas temperaturas, os átomos dopados ficam flexíveis e então adotam uma posição fixa na estrutura atômica.

Ligando tudo

Como cada estágio é realizado em uma parte diferente da fábrica, algumas partículas de poeira podem ficar sobre o processador. Sendo assim, antes de proceder é preciso limpar a sujeira depositada sobre o circuito.
Agora passamos ao próximo estágio da fabricação, em que o cobre é introduzido no processador. No entanto, antes de aplicar este elemento, uma camada de proteção é adicionada (a qual previne curtos-circuitos).

Cobre

Agora sim o cobre pode ser adicionado na estrutura do processador. Ele servirá para ligar bilhões de transistores. O cobre vai preencher os espaços que ficaram sobrando no wafer. Depois que tudo está devidamente ligado, temos circuitos integrados que vão agir em conjunto. Como a quantidade de cobre é adicionada em excesso, é preciso removê-la para que o wafer continue com a mesma espessura.
Depositando cobre
Fonte da imagem: divulgação/Intel
Detalhe: desde o começo da fabricação até a etapa atual, todas as etapas são acompanhadas com o auxílio de um microscópio de alta qualidade. Assim, os engenheiros visualizam as mínimas partes de cada transistor individualmente, o que garante a perfeição nos componentes internos do processador.
O processo para a criação de um wafer leva cerca de dois meses. No entanto, como um wafer comporta muitos chips, as fabricantes conseguem milhares de processadores em cada remessa de produção.

O último passo: o processador como conhecemos

Finalmente, um número absurdo de contatos é adicionado a parte contrária do wafer. O wafer será cortado em diversas partes para gerar vários processadores. No entanto, cada pedaço do wafer não é uma CPU, mas apenas um die – nome dado ao circuito principal.
O die é “colado” sobre uma base metálica, também conhecida como substrate. O substrate é a parte de baixo do processador e será a responsável por interligar os circuitos internos da CPU com os componentes da placa-mãe. Esta ligação é realizadas através de pinos metálicos – os quais serão encaixados no socket.
Etapa final
Fonte da imagem: divulgação/Intel
Outro componente semelhante a uma chapa metálica é colocado em cima do die. Este item é conhecido como heatspreader (espalhador de calor) e servirá como um dissipador. É no heatspreader que serão adicionados a logo da fabricante, o modelo do processador e futuramente será o local para aplicação da pasta térmica.

O processador chega a uma loja perto de você

Depois de juntar os três itens principais, o processador será testado mais uma vez – durante o processo de fabricação ele já foi testado diversas vezes. Caso os testes indiquem que tudo está normal, o produto será embalado.
O processador como você conhece...
Fonte da imagem: divulgação/AMD
Evidentemente, até este processo segue padrões rígidos, afinal todas as CPUs devem chegar com o mesmo padrão de qualidade até o consumidor. Muitos produtos serão enviados diretamente para montadoras, as quais já firmaram contratos prévios com as fabricantes. Outros serão encaixotados para a venda em lojas de informática.

Pronto para fabricar o seu?

Basicamente o processo de fabricação consiste nos passos apresentados neste artigo. É claro que não abordamos a inserção da memória cache, a fabricação dos transistores e adição de diversos componentes que vão nas CPUs.
Todavia, as próprias fabricantes não revelam muito sobre este assunto, justamente porque não veem necessidade de que os consumidores obtenham tais informações – além de que isto pode ajudar a cópia de métodos por parte das concorrentes.
O que você achou sobre este artigo? Tem alguma informação para adicionar? Compartilhe seu conhecimento conosco e os demais usuários!