sábado, 31 de agosto de 2013

Holografia


História[editar]

Foi concebida teoricamente em 1948 pelo húngaro Dennis Gabor, vencedor do Prémio Nobel de Física em 1971, e executada pela primeira vez somente nos anos 60, após a invenção do laser. Além de servir como forma de registro de imagens ela também é utilizada pela Física como uma sofisticada técnica para análise de materiais e armazenamento de dados.
O nome Holografia vem do grego holos (todo, inteiro) e graphos (sinal, escrita), pois é um método de registo "integral" da informação com relevo e profundidade.

Holograma quebrado em dois mostra mesma imagem em vistas diferentes. O holograma inteiro mostrava uma espécie de cubo, ao ser quebrado apresenta, em cada pedaço, um ângulo distinto do mesmo objeto
Os hologramas possuem uma característica única: cada parte deles possui a informação do todo. Assim, um pequeno pedaço de um holograma terá informações de toda a imagem do mesmo holograma completo. Ela poderá ser vista na íntegra, mas a partir de um ângulo restrito. A comparação pode ser feita com uma janela: se a cobrirmos, deixando um pequeno buraco na cobertura, permitiremos a um espectador continuar a observar a paisagem do outro lado. Porém, por conta do buraco, de um ângulo muito restrito; mas ainda se conseguirá ver a paisagem.
Este conceito de registro "total", no qual cada parte possui a informações do todo, é utilizado em outras áreas, como na Neurologia, na Neuro-fisiologia e na Neuro-psicologia, para explicar como o cérebro armazena as informações ou como a nossa memória funciona.
Desta forma, a holografia não deve ser considerada simplesmente como mais uma forma de visualização de imagens em três dimensões, mas sim como um processo de se codificar uma informação visual e depois (através do laser) decodificá-la, recriando "integralmente" esta mesma informação. É importante notar que diversas formas de projecção são erroneamente chamadas de holográficas por resultarem em imagens que aparentemente estão no ar (projecções sobre telas transparentes, películas de água, fumaça ou óleo). Na verdade, o sentido da holografia é o da reconstrução e da integralidade da imagem e não de uma impressão visual fantasmagórica que geralmente é em duas dimensões. Até hoje, não existe uma forma de projecção de imagens no ar sem qualquer suporte, seja ela holográfica ou não.
O termo holografia também é conhecido por holograma, que quer dizer "registro inteiro" ou "registro integral".

Método de Dennis Gabor[editar]


Esquema da geração de uma holografia
Este método usa lentes para abrir os raios e assim iluminar propriamente o objecto. Divide-se o laser em dois feixes por meio de um espelho que reflete apenas parcialmente a luz. O primeiro raio ilumina o objecto e faz sua imagem chegar ao filme fotográfico; o outro é direccionado por um segundo espelho e incide directamente sobre o filme. Há então um cruzamento dos dois raios sobre a superfície do filme (aquele com a imagem do objecto e o que atingiu directamente) fazendo com que as ondas de luz interfiram umas nas outras. Onde as cristas das ondas se encontram, forma-se luz mais intensa; onde uma crista de um feixe encontra o intervalo de onda de outro, forma-se uma região escura. Esta sobreposição é possível porque o laser se propaga através de ondas paralelas e igualmente espaçadas. O resultado é codificação da luz que atingia o objecto resultando em uma imagem tridimensional que reproduz o objecto fielmente. Porém ela só é vista quando se ilumina este filme com um laser. Para que esta imagem seja vista com a luz branca normal é preciso fazer todo processo novamente, só que desta vez substituindo o objecto pelo filme que já contém a imagem holográfica. Assim, coloca-se o filme exposto e revelado no lugar do objecto a ser holografado e um outro filme virgem que receberá a imagem através dos dois feixes. O resultado é um holograma visível sob a luz branca. Na verdade, pode-se considerar a holografia como uma "reconstrução luminosa do objecto" em três dimensões. A técnica de Gabor foi aperfeiçoada ao longo do tempo por outros cientistas como Stephen Benton, o que permitiu uma difusão da holografia fazendo com que fosse utilizada em diversas áreas. Os hologramas podem ser reproduzidos em película fotográfica, películas plásticas especiais ou em poliéster metalizado (hologramas impressos).

Áreas de utilização[editar]

A holografia é usada dentro da pesquisa científica no estudo de materiais, desenvolvimento de instrumentos ópticos, criação de redes de difracção entre outras. Na área da indústria tem aplicações no controle de qualidade de materiais, armazenamento de informação e na segurança (vide textos abaixo). A holografia também é utilizada na área da comunicação como um "display" de alto impacto visual comercialmente usado como elemento promocional em pontos-de-venda, estandes, museus, exposições, etc.
Já nas artes visuais diversos artistas trabalham a holografia como uma forma de expressão.
Os pioneiros da holografia no Brasil foram o Prof. José Lunazzi, da UNICAMP, o artista plástico e videomaker Moysés Baumstein e Fernando Catta-Preta. Baumstein produziu mais de 200 hologramas comerciais para empresas, instituições e agências de promoção, além de inúmeras holografias artísticas.

Armazenamento de dados[editar]

A possibilidade de armazenar grandes quantidades de informação em algum tipo de meio é de grande importância, para arquivamento, processamento de informações ou de imagens. Na área da tecnologia da informação testa-se o uso de hologramas como uma forma "ótica" de armazenamento de dados, que permite armazenar uma alta densidade de informações em cristais ou foto-polímeros. Como desdobramento destes testes, uma nova geração de DVDs foi criada pelo Bell Labs dos Estados Unidos e por outros laboratórios pelo mundo com base nos princípios holográficos. Enquanto os aparelhos de DVD atuais (incluindo o Blu-Ray e o extinto HD-DVD) lêem e gravam as informações no disco em uma ou mais camadas através de um sistema que altera o foco do raio laser, foi criado um novo disco onde o raio é dividido, alterado e recombinado de modo a criar padrões de interferência. Estes padrões na verdade são pequenos hologramas gravados por toda a camada sensível do disco que ocupam um espaço muito pequeno. Assim pode-se gravar uma densidade enorme de informação chegando-se ao patamar de Terabytes de dados (trilhões de bytes) em um único disco. Isto equivaleria a uma capacidade de armazenamento 800 vezes maior do que a de um DVD normal armazena hoje. Este tipo de DVD ainda experimental é chamado de Holographic Versatile Disc, ou Disco Holográfico Versátil.

Segurança[editar]

O uso de hologramas impressos (imagens holográficas estampadas em base de poliester ou em suportes "destrutíveis") para segurança se dá porque é muito difícil de produzir e replicar estes tipos de hologramas, assim eles são aplicados em produtos como um selo que comprovaria sua autenticidade. Porém apesar de requerer equipamentos caros, especializados e avançados tecnologicamente, nos últimos anos apareceram diversas falsificações de produtos com selos holográficos provando que se o valor do produto compensa a pirataria também investe em alta tecnologia. Os hologramas mais comuns para segurança são adesivos aplicados em cartões de crédito e bancários, em produtos de informática, relógios, DVDs e vários outros produtos passíveis de pirataria. De forma mais sofisticada hologramas impressos são integrados ao papel moeda para aumentar o grau de segurança de notas, acções, certificados bancários. Atualmente as notas de R$20, de R$50 e R$100 reais no Brasil, de 5/10/20 libras na Inglaterra, 5/10/20/50/100 dólares canadenses no Canadá, 5000/10000 yens no Japão, possuem tiras holográficas impressas.

Artes visuais[editar]

Como forma de expressão artística a holografia ainda é considerada embrionária, uma estética holográfica está por ser desenvolvida, porém diversos artistas plásticos a utilizaram, entre eles a inglesa Margaret Benyon, os norte-americanos Rudie Berkhout e Harriet Casdin-Silver, os brasileiros Moysés BaumsteinAugusto de CamposDécio Pignatari e a japonesa Setsuko Ishii. A primeira exposição de hologramas no Brasil foi organizada pelo produtor cultural Ivan Isola em 1981 no pavilhão da Bienal em São Paulo com hologramas produzidos em diversos países. Isola também criou a primeira sala de exposições dedicada a holografia durante sua gestão como diretor do MIS Museu da Imagem e do Som de São Paulo.
Em 1982 Moysés Baumstein (1931-1991) montou o primeiro de seus dois laboratórios em São Paulo dirigidos à produção holográfica artística e comercial. Desenvolveu técnicas próprias de exposição e revelação, que resultaram em hologramas de grande impacto visual e qualidade. Em 1987 montou seu segundo laboratório, no total foram produzidos nos dois laboratórios mais de 300 hologramas tanto para uso comercial quanto artístico.
Do final da década de 1980 até sua morte Moysés Baumstein trabalhou com Augusto de CamposDécio Pignatari, Júlio Plaza, Wagner Garcia e Rozélia Medeiros produzindo e expondo Hologramas artísticos em diversos museus e instituições no Brasil e no exterior; seu laboratório esteve em atividade até 2007, quando foi doado para o setor de Óptica da Universidade UNICAMP.
A holografia também gerou conhecidos "ídolos" atuais japoneses, como os Vocaloids.


Holography - Is "lensless photography" 





The above image was taken through a transmission hologram. The hologram was illuminated from behind by a helium-neon laser which has been passed through a diverging lens to spread the beam over the hologram.

Holography is "lensless photography" in which an image is captured not as an image focused on film, but as an interference pattern at the film. Typically, coherent light from a laser is reflected from an object and combined at the film with light from a reference beam. This recorded interference pattern actually contains much more information that a focused image, and enables the viewer to view a true three-dimensional image which exhibits parallax. 

That is, the image will change its appearance if you look at it from a different angle, just as if you were looking at a real 3D object. In the case of a transmission hologram, you look through the film and see the three dimensional image suspended in midair at a point which corresponds to the position of the real object which was photographed.


These three images of the same hologram were taken by positioning the camera at three positions, moving the camera from left to right. Note that the pawn appears on the right side of the king in the left photo, but transitions to the left of the king as you move the viewing position across the hologram so that you are viewing it from further to the right. This is real parallax, which tells you that the image is truly 3-dimensional. Each perspective corresponds to looking through the hologram at a particular point.



The Holographic Image 

Some of the descriptions of holograms are
  • "image formation by wavefront reconstruction.."
  • "lensless photography"
  • "freezing an image on its way to your eye, and then reconstructing it with a laser"
A consistent characteristic of the images as viewed


  1. The images are true three-dimensional images, showing depth and parallax and continually changing in aspect with the viewing angle.
  2. Any part of the hologram contains the whole image!
  3. The images are scalable. They can be made with one wavelength and viewed with another, with the possibility of magnification.

Three-Dimensional Image

Holograms are true three-dimensional images. This is evidenced by the fact that you can move your head while viewing the image and see it in a different perspective. This includes revealing part of the image which was hidden at another viewing angle. Shown below are three images from the same hologram, obtained by looking through it at different angles. Note that the pawn appears in different perspective in front of the king behind it.



When a piece is the whole

Every part of a hologram contains the image of the whole object. You can cut off the corner of a hologram and see the entire image through it. For every viewing angle you see the image in a different perspective, as you would a real object. Each piece of a hologram contains a particular perspective of the image, but it includes the entire object.

The image at upper right is the view through the larger part of the hologram, while that at lower right is through a small corner cut off the hologram. While the view through the small corner is from a particular point of view, it contains the whole object.



Image on the Film of a Hologram


The image on the film for a transmission hologram is formed by the interference of the light from the object and the reference beam. This interference pattern looks something like the ripples on a pond when a bunch of small pebbles is thrown in. The interference pattern on this hologram is extraordinarily well defined.
Viewing a transmission holograminvolves illuminating it with a coherent source like a laser and looking through the film at the image in space behind the film. The image shown is associated with the interference pattern above.



Scaling Holographic Images

The holographic image scales with the wavelength. This initially caused great excitement because one could imagine making holographic images with x-rays and viewing them with visible light, getting three-dimensional views of things on the scale of molecules. X-ray holograms have yet to be made, and there are practical difficulties with the scaling, but there is still the possibility that this feature of holograms will prove to be of great benefit.


Hologram Scaling with Wavelength



Experimenters:Bob Gobron, Kiyra Holt, David Patton
One of the unique properties of hologramsis that the size of the viewed image scales with the wavelength of the viewing light. At left is a view of a hologram of the end of a pipe formed with light from a mercury vapor tube. The mercury source has three prominent wavelengths and you can see three distinct images of different size.
Measuring the relative size of the images compared to the blue image (435.8 nm) gives 1.26 for the green (546.1 nm) and 1.36 for the yellow-orange image (576.9 and 579.1 nm). The scaling of the wavelengths relative to the blue wavelength gives 1.25 for the green and an average of 1.33 for the yellow-orange lines, so the image sizes appear to scale with the wavelength.

Mercury spectrum

The lower image shows the same hologram viewed with the mercury source filtered by an interference filter which transmits only the mercury green line.

The direct viewing of a hologram with mercury light illustrates a unique feature of the blue vision of the human eye compared to that for red and green. Because of distinctions with the blue cones of the eye and a bit of chromatic aberration in the eye, the blue image will look less distinct than the green and orange image. The effect must be viewed directly; the way the image is made in this illustration mixes in enough other colors to remove the effect.


Interference Imaging

Holography is "lensless photography" in which an image is captured not as an image focused on film, but as an interference pattern at the film.

The Transmission Hologram

The coherent light from the laser is split to form an object beam and a reference beam. The light from the illuminated object and the reference beam form aninterference pattern on the film. This pattern (hologram) contains the information about the object which can then be viewed as at hree dimensional image.


Reflection Holograms 

With a reflection hologram, the image is stored in a thick emulsion and can be viewed in white light. The simplest such hologram to make is the direct beam reflection hologram. In this case the direct beam through the film serves as the reference beam.


Rainbow Holograms 

Rainbow holograms are holograms which can be viewed in white light. They are made by a double holographic process where an ordinary hologram such as a transmission hologram is used as the object and a second hologram is made through a slit. A horizontal slit limits the vertical perspective of the first image so that there is no vertical parallax in the resultant rainbow hologram. 

This slit process removes the coherence requirement on the viewing light so that full advantage can be taken of the image brightness obtained from ordinary room light, while maintaining the three-dimensional character of the image as the viewers eye is moved horizontally. If the viewers eye is moved vertically, no parallax is seen and the image color sweeps through the rainbow spectrum from blue to red, hence "rainbow hologram".

Viewing a Transmission Hologram 

Holography is lensless photography. The image is captured in theinterference pattern on the film, and the image can be reconstructed for viewing by shining the coherent light of a laser on the hologram. The eye is focused behind the film to see the image suspended in space. It shows the unique characteristics of holographic images.



The diverged laser beam should be placed in the same orientation with respect to the film as the reference beam which was used to make the hologram. Then the image will be seen in the same position as the original object with respect to the film. It is as if the light from the object was frozen in the film, and then continues to your eye when reconstructed with the laser light.
Denisyuk Holograms 

Denisyuk contributed to the development of the hologram by using Lippmann's photographic process to make reflection holograms which could be viewed in color if more than one coherent source was available. In his method the beam was passed through the photographic emulsion and back reflected from the object. The emulsion could then be mounted on a reflective backing for viewing by reflected light.


Above are two views of a Denisyuk demonstration hologram. It is composed of a very thick emulsion mounted on a reflective backing. At first glance it will look like a black, shiny piece of film. But with an overhead light, you can find a position where the image will appear, as shown above right. You can see the image with ordinary room light because of the action of the thick emulsion.

Optimum viewing of the holographic image was found with a small flashlight held back as far as practicable from the image. The photo at left was taken under those conditions. The depth of field of the image depends upon the vergence of the light from the source.
This view of the same image was photographed with the flashlight close to the hologram. Although it is brighter, there is severe loss of depth of focus. The marching band figurines are also viewed from a different angle, showing the true 3-dimensional nature of the holographic image.
These two images were taken with the illumination of a small penlight to more nearly approximate a point source of light. The one on the left shows the loss of depth of field when the penlight was held close to the hologram (about 40 cm). Greater depth of field was obtained at right by holding the light about 100 cm from the hologram.

When you moved the light source across the hologram, you got dramatic changes in the perspective of the image, showing the true three dimensional nature of the holographic image. Hecht describes this kind of hologram as a "volume hologram" because the emulsion thickness is so great that the object beam and reference beam overlap to produce a three-dimensional pattern of standing waves in the emulsion. The holographic information is stored throughout the volume of the emulsion. 


Hologram History

Historical notes:
Gabor was the discoverer of the hologram and received the Nobel Prize in Physics for it in 1971. This was pre-laser holography of course, and he made holograms only of transparencies where his reference beam was the unobstructed light which went through the clear parts of the transparency.

Leith and Upatnieks developed the off-axis reference beam method which is most often used today. It permitted the making of holograms of solid objects by reflected light.

Denisyuk contributed to the development by using Lippmann's photographic process to make reflection holograms which could be viewed in color if more than one coherent source was available. In his method the beam was passed through the photographic emulsion and back reflected from the object. The emulsion could then be mounted on a reflective backing for viewing by reflected light.

Benton is credited with the development of the rainbow hologram. Since it can be mass-copied and viewed with incoherent white light, it has become the most common type of hologram. Rainbow holograms have appeared on National Geographic's cover and on millions of credit cards as a deterrent to counterfeiting.

Composite holograms are made as multiple strips so that you get a different image from different angles. They can be viewed in white light.

sexta-feira, 30 de agosto de 2013

Computadores


Computadores

Computador é uma máquina capaz de variados tipos de tratamento automático de informações ouprocessamento de dados. Um computador pode prover-se de inúmeros atributos, dentre elesarmazenamento de dados, processamento de dados, cálculo em grande escala, desenho industrial, tratamento de imagens gráficas, realidade virtual, entretenimento e cultura.

No passado, o termo já foi aplicado a pessoas responsáveis por algum cálculo. Em geral, entende-se por computador um sistema físico que realiza algum tipo de computação. Existe ainda o conceito matemático rigoroso, utilizado na teoria da computação.
Assumiu-se que os computadores pessoais e laptops são ícones da Era da Informação1 ; e isto é o que muitas pessoas consideram como "computador".

 Entretanto, atualmente as formas mais comuns de computador em uso são os sistemas embarcados, pequenos dispositivos usados para controlar outros dispositivos, como robôs, câmeras digitais ou brinquedos.

História

As primeiras máquinas de computar

John Napier (1550-1617), escocês inventor dos logaritmos, também inventou os ossos de Napier, que eram tabelas de multiplicação gravadas em bastão, o que evitava a memorização da tabuada.

A primeira máquina de verdade foi construída por Wilhelm Schickard sendo capaz de somar, subtrair, multiplicar e dividir. Essa máquina foi perdida durante a guerra dos trinta anos, sendo que recentemente foi encontrada alguma documentação sobre ela. Durante muitos anos nada se soube sobre essa máquina, por isso, atribuía-se a Blaise Pascal (1623-1662) a construção da primeira máquina calculadora, que fazia apenas somas e subtrações.

A máquina Pascal foi criada com objetivo de ajudar seu pai a computar os impostos em Rouen, França. O projeto de Pascal foi bastante aprimorado pelo matemático alemão Gottfried Wilhelm Leibniz (1646-1726), que também inventou ocálculo, o qual sonhou que, um dia no futuro, todo o raciocínio pudesse ser substituído pelo girar de uma simples alavanca.

Todas essas máquinas, porém, estavam longe de ser um computador de uso geral, pois não eram programáveis. Isto quer dizer que a entrada era feita apenas de números, mas não de instruções a respeito do que fazer com os números.

Babbage

Réplica (parte) do Calculador Diferencial criado por Charles Babbage.
A origem da idéia de programar uma máquina vem da necessidade de que as máquinas de tecer produzissem padrões de cores diferentes. Assim, no século XVIII foi criada uma forma de representar os padrões em cartões de papel perfurado, que eram tratados manualmente. Em 1801Joseph Marie Jacquard (1752-1834) inventa um tear mecânico, com uma leitora automática de cartões.
A ideia de Jacquard atravessou o Canal da Mancha, onde inspirou Charles Babbage(1792-1871), um professor de matemática de Cambridge, a desenvolver uma máquina de “tecer números”, uma máquina de calcular onde a forma de calcular pudesse ser controlada por cartões.
Tudo começou com a tentativa de desenvolver uma máquina capaz de calcular polinômios por meio de diferenças, o calculador diferencial. Enquanto projetava seu calculador diferencial, a idéia de Jacquard fez com que Babbage imaginasse uma nova e mais complexa máquina, o calculador analítico, máquina com alguns elementos que remetem aos computadores atuais.
Sua parte principal seria um conjunto de rodas dentadas, o moinho, formando uma máquina de somar com precisão de cinquenta dígitos. As instruções seriam lidas de cartões perfurados. Os cartões seriam lidos em um dispositivo de entrada e armazenados, para futuras referências, em um banco de mil registradores. Cada um dos registradores seria capaz de armazenar um número de cinquenta dígitos, que poderiam ser colocados lá por meio de cartões a partir do resultado de um dos cálculos do moinho.
Além disso tudo, Babbage imaginou a primeira máquina de impressão, que imprimiria os resultados dos cálculos, contidos nos registradores. Babbage conseguiu, durante algum tempo, fundos para sua pesquisa, porém não conseguiu completar sua máquina no tempo prometido e não recebeu mais dinheiro. Hoje, partes de sua máquina podem ser vistas no Museu Britânico, que também construiu uma versão completa, utilizando as técnicas disponíveis na época.
Junto com Babbage, trabalhou a jovem Ada Augusta, filha do poeta Lord Byron, conhecida como Lady Lovelace e Ada Lovelace. Ada foi a primeira programadora da história, projetando e explicando, a pedido de Babbage, programas para a máquina inexistente. Ada inventou os conceitos de subrotina, uma seqüência de instruções que pode ser usada várias vezes; de loop, uma instrução que permite a repetição de uma seqüência de instruções, e do salto condicional, instrução que permite saltar para algum trecho do programa caso uma condição seja satisfeita.
Ada Lovelace e Charles Babbage estavam avançados demais para o seu tempo, tanto que até a década de 1940, nada se inventou parecido com seu computador analítico. Até essa época foram construídas muitas máquinas mecânicas de somar destinadas a controlar negócios (principalmente caixas registradoras) e algumas máquinas inspiradas na calculadora diferencial de Babbage, para realizar cálculos de engenharia (que não alcançaram grande sucesso).

A máquina de tabular

O próximo avanço dos computadores foi feito pelo americano Herman Hollerith (1860-1929), que inventou uma máquina capaz de processar dados baseada na separação de cartões perfurados (pelos seus furos). A máquina de Hollerith foi utilizada para auxiliar no censo de 1890, reduzindo o tempo de processamento de dados de sete anos, do censo anterior, para apenas dois anos e meio. Ela foi também pioneira ao utilizar a eletricidade na separação, contagem e tabulação dos cartões.
A empresa fundada por Hollerith é hoje conhecida como International Business Machines, ou IBM.

Os primeiros computadores de uso geral


Z1, computador eletro-mecânico construído por Konrad Zuse.
O primeiro computador eletro-mecânico foi construído por Konrad Zuse (19101995). Em 1936, esse engenheiro alemão construiu, a partir de relês que executavam os cálculos e dados lidos em fitas perfuradas, o Z1. Zuse tentou vender o computador ao governo alemão, que desprezou a oferta, já que não poderia auxiliar no esforço de guerra. Os projetos de Zuse ficariam parados durante a guerra, dando a chance aos americanos de desenvolver seus computadores.
Foi na Segunda Guerra Mundial que realmente nasceram os computadores atuais. A Marinha dos Estados Unidos, em conjunto com a Universidade de Harvard, desenvolveu o computadorHarvard Mark I, projetado pelo professor Howard Aiken, com base no calculador analítico de Babbage. O Mark I ocupava 120m³ aproximadamente, conseguindo multiplicar dois números de dez dígitos em três segundos.
Simultaneamente, e em segredo, o Exército dos Estados Unidos desenvolvia um projeto semelhante, chefiado pelos engenheiros J. Presper Eckert e John Mauchly, cujo resultado foi o primeiro computador a válvulas, o Eletronic Numeric Integrator And Calculator(ENIAC)2 , capaz de fazer quinhentas multiplicações por segundo. Tendo sido projetado para calcular trajetórias balísticas, o ENIAC foi mantido em segredo pelo governo americano até o final da guerra, quando foi anunciado ao mundo.

ENIAC, computador desenvolvido pelo Exército dos Estados Unidos.
No ENIAC, o programa era feito rearranjando a fiação em um painel. Nesse ponto John von Neumann propôs a idéia que transformou os calculadores eletrônicos em “cérebros eletrônicos”: modelar a arquitetura do computador segundo o sistema nervoso central. Para isso, eles teriam que ter três características:
  1. Codificar as instruções de uma forma possível de ser armazenada na memória do computador. Von Neumann sugeriu que fossem usados uns e zeros.
  2. Armazenar as instruções na memória, bem como toda e qualquer informação necessária a execução da tarefa, e
  3. Quando processar o programa, buscar as instruções diretamente na memória, ao invés de lerem um novo cartão perfurado a cada passo.

Visão simplificada da arquitetura de Von Neumann.
Este é o conceito de programa armazenado, cujas principais vantagens são: rapidez, versatilidade e automodificação. Assim, o computador programável que conhecemos hoje, onde o programa e os dados estão armazenados na memória ficou conhecido como Arquitetura de von Neumann.
Para divulgar essa idéia, von Neumann publicou sozinho um artigo. Eckert e Mauchy não ficaram muito contentes com isso, pois teriam discutido muitas vezes com ele. O projeto ENIAC acabou se dissolvendo em uma chuva de processos, mas já estava criado o computador moderno.

Arquitetura de hardware


LEGENDA: 01- Monitor02- Placa-Mãe03- Processador04-Memória RAM05- Placas de RedePlacas de SomVídeoFax...; 06-Fonte de Energia07- Leitor de CDs e/ou DVDs08- Disco Rígido(HD)09- Mouse (Rato); 10- Teclado.
Mesmo que a tecnologia utilizada nos computadores digitais tenha mudado dramaticamente desde os primeiros computadores da década de 1940 (veja história do hardware), quase todos os computadores atuais ainda utilizam a arquitetura de von Neumann proposta por John von Neumann.
Seguindo a arquitetura, os computadores possuem quatro sessões principais, a unidade lógica e aritmética, a unidade de controle, amemória e os dispositivos de entrada e saída. Essas partes são interconectadas por barramentos. A unidade lógica e aritmética, a unidade de controle, os registradores e a parte básica de entrada e saída são conhecidos como a CPU.
Alguns computadores maiores diferem do modelo acima em um aspecto principal - eles têm múltiplas CPUs trabalhando simultaneamente. Adicionalmente, poucos computadores, utilizados principalmente para pesquisa e computação científica, têm diferenças significativas do modelo acima, mas eles não tem grande aplicação comercial.

Processamento

O processador (ou CPU) é uma das partes principais do hardware do computador e é responsável pelos cálculos, execução de tarefas e processamento de dados. A velocidade com que o computador executa as tarefas ou processa dados está diretamente ligada à velocidade do processador. As primeiras CPUs eram constituídas de vários componentes separados, mas desde meados da década de 1970 as CPUs vêm sendo manufaturadas em um único circuito integrado, sendo então chamadas microprocessadores.
unidade lógica e aritmética (ULA) é a unidade central do processador, que realmente executa as operações aritméticas e lógicas entre dois números. Seus parâmetros incluem, além dos números operandos, um resultado, um comando da unidade de controle, e o estado do comando após a operação. O conjunto de operações aritméticas de uma ULA pode ser limitado a adição e subtração, mas também pode incluir multiplicação, divisão, funções trigonométricas e raízes quadradas. Algumas podem operar somente com números inteiros, enquanto outras suportam o uso de ponto flutuante para representar números reais (apesar de possuírem precisão limitada).
unidade de controle é a unidade do processador que armazena a posição de memória que contém a instrução corrente que o computador está executando, informando à ULA qual operação a executar, buscando a informação (da memória) que a ULA precisa para executá-la e transferindo o resultado de volta para o local apropriado da memória. Feito isto, a unidade de controle vai para a próxima instrução (tipicamente localizada na próxima posição da memória, a menos que a instrução seja uma instrução de desvio informando que a próxima instrução está em outra posição.
A CPU também contém um conjunto restrito de células de memória chamados registradores que podem ser lidos e escritos muito mais rapidamente que em outros dispositivos de memória. São usados frequentemente para evitar o acesso contínuo à memória principal cada vez que um dado é requisitado.

Memória

memória é um dispositivo que permite ao computador armazenar dados por certo tempo. Atualmente o termo é geralmente usado para definir as memórias voláteis, como a RAM, mas seu conceito primordial também aborda memórias não voláteis, como o disco rígido. Parte da memória do computador é feita no próprio processador; o resto é diluído em componentes como a memória RAM,memória cachedisco rígido e leitores de mídias removíveis, como disqueteCD e DVD.
Nos computadores modernos, cada posição da memória é configurado para armazenar grupos de oito bits (chamado de um byte). Cada byte consegue representar 256 números diferentes; de 0 a 255 ou de -128 a +127. Para armazenar números maiores pode-se usar diversos bytes consecutivos (geralmente dois, quatro ou oito). Quando números negativos são armazenados, é utilizada a notação de complemento para dois.
A memória do computador é normalmente dividida entre primária e secundária, sendo possível também falar de uma memória "terciária".

Memória primária

A memória primária é aquela acessada diretamente pela Unidade Lógica e Aritmética. Tradicionalmente essa memória pode ser de leitura e escrita (RAM) ou só de leitura (ROM). Atualmente existem memórias que podem ser classificadas como preferencialmente de leitura, isso é, variações da memória ROM que podem ser regravadas, porém com um número limitado de ciclos e um tempo muito mais alto.
Normalmente a memória primária se comunica com a ULA por meio de um barramento ou canal de dados. A velocidade de acesso a memória é um fator importante de custo de um computador, por isso a memória primária é normalmente construída de forma hierárquica em um projeto de computador. Parte da memória, conhecida como cache fica muito próxima à ULA, com acesso muito rápido. A maior parte da memória é acessada por meio de vias auxiliares.
Normalmente a memória é nitidamente separada da ULA em uma arquitetura de computador. Porém, os microprocessadores atuais possuem memória cache incorporada, o que aumenta em muito sua velocidade.
Memória RAM

Memória RAM de um PC.
memória RAM (Random Access Memory) é uma sequência de células numeradas, cada uma contendo uma pequena quantidade de informação. A informação pode ser umainstrução para dizer ao computador o que fazer. As células podem conter também dadosque o computador precisa para realizar uma instrução. Qualquer célula pode conter instrução ou dado, assim o que em algum momento armazenava dados pode armazenar instruções em outro momento. Em geral, o conteúdo de uma célula de memória pode ser alterado a qualquer momento, a memória RAM é um rascunho e não um bloco de pedra.
As memórias RAM são denominadas genericamente de DRAM (RAM dinâmica), pelo fato de possuírem uma característica chamada refrescamento de memória, que tem a finalidade de regravar os dados armazenados em intervalos regulares de tempo,o que é necessário para a manutenção de seu conteúdo. O tamanho de cada célula, e o número de células, varia de computador para computador, e as tecnologias utilizadas para implementar a memória RAM variam bastante. Atualmente o mais comum é a implementação em circuitos integrados.
Memória ROM

Memória ROM de um PC.
memória ROM (Read-Only Memory) é uma memória que só pode ser lida e os dados não são perdidos com o desligamento do computador. A diferença entre a memória RAM e a ROM é que a RAM aceita gravação, regravação e perda de dados. Mesmo se for enviada uma informação para ser gravada na memória ROM, o procedimento não é executado (esta característica praticamente elimina a criação de vírus que afetam a ROM).
Um software gravado na ROM recebe o nome de firmware. Em computadores da linha IBM-PC eles são basicamente três, que são acessados toda vez que ligamos o computador, a saber: BIOSPOST e SETUP.
Existe uma variação da ROM chamada memória preferencialmente de leitura que permite a re-gravação de dados. São as chamadasEPROM (Erasable Programmable Read Only Memory) ou EEPROM (Electrically Erasable Programmable Read-Only Memory).

Memória secundária

A memória secundária ou memória de massa é usada para gravar grande quantidade de dados, que não são perdidos com o desligamento do computador, por um período longo de tempo. Exemplos de memória de massa incluem o disco rígido e mídias removíveis como o CD-ROM, o DVD, o disquete e o pen drive.
Normalmente a memória secundária não é acessada diretamente pela ULA, mas sim por meio dos dispositivos de entrada e saída. Isso faz com que o acesso a essa memória seja muito mais lento do que o acesso a memória primária. Para isso cada dispositivo encontra-se com um buffer de escrita e leitura para melhoramento de desempenho.
Supostamente, consideramos que a memória terciária está permanentemente ligada ao computador.

Memória terciária


Fita magnética para gravação de dados.
Sistemas mais complexos de computação podem incluir um terceiro nível de memória, com acesso ainda mais lento que o da memória secundária. Um exemplo seria um sistema automatizado de fitas contendo a informação necessária. A memória terciária não é nada mais que um dispositivo de memória secundária ou memória de massa colocado para servir um dispositivo de memória secundária.
As tecnologias de memória usam materiais e processos bastante variados. Na informática, elas têm evoluído sempre em direção de uma maior capacidade de armazenamento, maior miniaturização, maior rapidez de acesso e confiabilidade, enquanto seu custo cai constantemente.
Entretanto, a memória de um computador não se limita a sua memoria individual e física, ela se apresenta de maneira mais ampla, e sem lugar definido (desterritorializada). Temos possibilidades de armazenar em diversos lugares na rede, podemos estar em Cairo e acessar arquivos que foram armazenados em sítios no Brasil.
É crescente a tendência para o armazenamento das informações na memória do espaço virtual, ou o chamado ciberespaço, através de discos virtuais e anexos de e-mails. Isto torna possível o acesso a informação a partir de qualquer dispositivo conectado à Internet.

Entrada e saída

Os dispositivos de entrada e saída (E/S) são periféricos usados para a interação homem-computador. Nos computadores pessoais modernos, dispositivos comuns de entrada incluem o mouse (ou rato), oteclado, o digitalizador e a webcam. Dispositivos comuns de saída incluem a caixa de som, o monitor3e a impressora.
O que todos os dispositivos de entrada têm em comum é que eles precisam codificar (converter) a informação de algum tipo em dados que podem ser processados pelo sistema digital do computador. Dispositivos de saída por outro lado, descodificam os dados em informação que é entendida pelo usuário do computador. Neste sentido, um sistema de computadores digital é um exemplo de um sistema de processamento de dados.
Processo este, que consiste basicamente em três fases: Entrada, Processameto e Saída. Entendemos por entrada todo o procedimento de alimentação de informações, que por sua vez serão processadas (fase de processamento) e após isso, são repassadas as respostas ao usuário (saída).
Podemos ter dispositivos que funcionam tanto para entrada como para saída de dados, como o modem e o drive de disquete. Atualmente, outro dispositivo híbrido de dados é a rede de computadores.

Blocos funcionais de um computador.

Barramentos

Para interligar todos esses dispositivos existe uma placa de suporte especial, a placa-mãe, que através de barramentos, fios e soquetes conecta todos os dispositivos. Sua função inclui também a conexão de placas auxiliares que sub-controlam os periféricos de entrada e saída, como a placa de som (conecta-se com a caixa de som), a placa de vídeo (conecta-se com o monitor), placa de rede (conecta-se com a LAN) e o fax-modem (conecta-se com a linha telefônica).
Nota-se que o barramento entre os componentes não constitui uma conexão ponto-a-ponto; ele pode conectar logicamente diversos componentes utilizando o mesmo conjunto de fios. O barramento pode utilizar uma interface serial ou uma interface paralela.
Outros equipamentos adicionais usados em conjunto com a placa-mãe são o dissipador, um pequeno ventilador para resfriar o processador, e a fonte de energia, responsável pela alimentação de energia de todos os componentes do computador.

Arquitetura de software

Instruções

A principal característica dos computadores modernos, o que o distingue de outras máquinas, é que pode ser programado. Isto significa que uma lista de instruções pode ser armazenada na memória e executa posteriormente.

As instruções executadas na ULA discutidas acima não são um rico conjunto de instruções como alinguagem humana. O computador tem apenas um limitado número de instruções bem definidas. Um exemplo típico de uma instrução existente na maioria dos computadores é "copie o conteúdo da posição de memória 123 para a posição de memória 456", "adicione o conteúdo da posição de memória 510 ao conteúdo da posição 511 e coloque o resultado na posição 507" e "se o conteúdo da posição 012 é igual a 0, a próxima instrução está na posição 678".
Instruções são representadas no computador como números - o código para "copiar" poderia ser 007, por exemplo. O conjunto particular de instruções que um computador possui é conhecido como a linguagem de máquina do computador. Na prática, as pessoas não escrevem instruções diretamente na linguagem de máquina mas em uma linguagem de programação, que é posteriormente traduzida na linguagem de máquina através de programas especiais, como interpretadores e compiladores. Algumas linguagens de programação se aproximam bastante da linguagem de máquina, como o assembly (linguagem de baixo nível); por outro lado linguagens como o Prolog são baseadas em princípios abstratos e se distanciam bastante dos detalhes da operação da máquina (linguagens de alto nível).
A execução das instruções é tal como ler um livro. Apesar da pessoa normalmente ler cada palavra e linha em sequência, é possível que algumas vezes ela volte para pontos anteriores do texto de interesse ou passe sessões não interessantes. Da mesma forma, um computador que segue a arquitetura de von Neumann executa cada instrução de forma sequencial, da maneira como foram armazenadas na memória. Mas, através de instruções especiais, o computador pode repetir instruções ou avançá-las até que alguma condição seja satisfeita. Isso é chamado controle do fluxo e é o que permite que o computador realize tarefas repetitivamente sem intervenção humana.
Uma pessoa usando uma calculadora pode realizar operações aritméticas como somar número apertando poucos botões. Mas somar sequencialmente os números de um a mil iria requerer apertar milhares de vezes os botões, com uma alta probabilidade de erro em alguma iteração. Por outro lado, computadores podem ser programados para realizar tal tarefa com poucas instruções, e a execução e extremamente rápida.
Mas os computadores não conseguem pensar, eles somente executam as instruções que fornecemos. Um humano instruído, ao enfrentar o problema da adição explicado anteriormente, perceberia em algum momento que pode reduzir o problema usando a seguinte equação:
1+2+3+...+n = {{n(n+1)} \over 2}
e chegar na mesma resposta correta com pouco trabalho. Alguns computadores modernos conseguem tomar algumas decisões para acelerar a execução dos programas ao prever instruções futuras e reorganizar a ordem de instruções sem modificar seu significado. Entretanto, os computadores ainda não conseguem determinar instintivamente uma maneira mais eficiente de realizar sua tarefa, pois não possuem conhecimento para tal 4 .

Programas

Programas são simplesmente grandes listas de instruções para o computador executar, tais com tabelas de dados. Muitos programas de computador contêm milhões de instruções, e muitas destas instruções são executadas repetidamente. Um computador pessoaltípico (no ano de 2003) podia executar cerca de dois a três bilhões de instruções por segundo. Os computadores não têm a sua extraordinária capacidade devido a um conjunto de instruções complexo. Apesar de existirem diferenças de projeto com CPU com um maior número de instruções e mais complexas, os computadores executam milhões de instruções simples combinadas, escritas por bons "programadores". Estas instruções combinadas são escritas para realizar tarefas comuns como, por exemplo, desenhar um ponto na tela. Tais instruções podem então ser utilizadas por outros programadores.
Hoje em dia, muitos computadores aparentam executar vários programas ao mesmo tempo, o que é normalmente conhecido comomultitarefa. Na realidade, a CPU executa as instruções de um programa por um curto período de tempo e, em seguida, troca para um outro programa e executa algumas de suas instruções. Isto cria a ilusão de vários programas sendo executados simultaneamente através do compartilhamento do tempo da CPU entre os programas. Este compartilhamento de tempo é normalmente controlado pelosistema operacional. Nos casos em que o computador possui dois núcleos de processamento, cada núcleo processa informações de um programa, diminuindo assim o tempo de processamento.

Sistema operacional

Um computador sempre precisa de no mínimo um programa em execução por todo o tempo para operar. Tipicamente este programa é o sistema operacional (ou sistema operativo), que determina quais programas vão executar, quando, e que recursos (como memória e E / S) ele poderá utilizar. O sistema operacional também fornece uma camada de abstração sobre o hardware, e dá acesso aos outros programas fornecendo serviços, como programas gerenciadores de dispositivos ("drivers") que permitem aos programadores escreverem programas para diferentes máquinas sem a necessidade de conhecer especificidades de todos os dispositivos eletrônicos de cada uma delas.

Impactos do computador na sociedade


Visualização gráfica de várias rotas em uma porção da Internet mostrando a escalabilidade da rede
Segundo Pierre Lévy, no livro "Cibercultura", o computador não é mais um centro, e sim um nó, um terminal, um componente da rede universal calculante. Em certo sentido, há apenas um único computador, mas é impossível traçar seus limites, definir seu contorno. É um computador cujo centro está em toda parte e a circunferência em lugar algum, um computador hipertextual, disperso, vivo, fervilhante, inacabado: o ciberespaço em si.
O computador evoluiu em sua capacidade de armazenamento de informações, que é cada vez maior, o que possibilita a todos um acesso cada vez maior a informação. Isto significa que o computador agora representa apenas um ponto de um novo espaço, o ciberespaço. Essas informações contidas em computadores de todo mundo e presentes no ciberespaço, possibilitam aos usuários um acesso a novos mundos, novas culturas, sem a locomoção física. Com todo este armazenamento de textos, imagens, dados, etc.
Houve também uma grande mudança no comportamento empresarial, com uma forte redução de custo e uma descompartimentalização das mesmas. Antes o que era obstante agora é próximo, as máquinas, componentes do ciberespaço, com seus compartimentos de saída, otimizaram o tempo e os custos.

Classificação dos computadores

Computadores podem ser classificados de acordo com a função que exercem ou pelas suas dimensões (capacidade de processamento). A capacidade de processamento é medida em flops.

Quanto à Capacidade de Processamento

  • Microcomputador - Também chamado Computador pessoal ou ainda Computador doméstico. Segundo a Lista Top 10 Flops, chegam atualmente aos 107,58 GFlops5 (Core i7 980x da Intel).
  • Console ou videogame - Ao mesmo tempo função e capacidade. Não chega a ser um computador propriamente dito, mas os atuais PlayStation 3 e Xbox 360 alcançam 218 e 115 GFlops respectivamente.
  • Mainframe - Um computador maior em tamanho e mais poderoso. Segundo a Lista Top500 de jun/2010, ficam na casa dos TFlops (de 20 a 80 TFlops), recebendo o nome comercial de servidores (naquela lista), que na verdade é a função para a qual foram fabricados e não sua capacidade, que é de mainframe.
  • Supercomputador - Muito maior em dimensões, pesando algumas toneladas e capaz de, em alguns casos, efetuar cálculos que levariam 100 anos para serem calculados em um microcomputador. Seu desempenho ultrapassa 80 TFlops, chegando a 1.750 TFlops (1,75 PFlops)6 .

Quanto às suas Funções

  • Console ou videogame - Como dito não são computadores propriamente ditos, mas atualmente conseguem realizar muitas, senão quase todas, as funções dos computadores pessoais.
  • Servidor (server) - Um computador que serve uma rede de computadores. São de diversos tipos. Tanto microcomputadores quanto mainframes são usados como servidores.
  • Estação de trabalho (workstation) - Serve um único usuário e tende a possuir hardware e software não encontráveis em computadores pessoais, embora externamente se pareçam muito com os computadores pessoais. Tanto microcomputadores quanto mainframes são usados como estações de trabalho.
  • Sistema embarcado, computador dedicado ou computador integrado (embedded computer) - De menores proporções, é parte integrante de uma máquina ou dispositivo. Por exemplo uma unidade de comando da injeção eletrônica de um automóvel, que é específica para atuar no gerenciamento eletrônico do sistema de injeção de combustível e ignição. Eles são chamados de dedicados pois executam apenas a tarefa para a qual foram programados. Tendem a ter baixa capacidade de processamento, às vezes inferior aos microcomputadores.



Mainframe


Mainframe Honeywell-Bull DPS 7 da BWW
Um mainframe é um computador de grande porte, dedicado normalmente ao processamento de um volume grande de informações. Os mainframes são capazes de oferecer serviços de processamento a milhares de usuários através de milhares de terminais conectados diretamente ou através de uma rede. (O termo mainframe se refere ao gabinete principal que alojava a unidade central de fogo nos primeiros computadores).
Embora venham perdendo espaço para os servidores de arquitetura PC e servidoresUnix, que em geral possuem custo menor, ainda são muito usados em ambientes comerciais e grandes empresas (bancos, empresas de aviação, universidades, etc.).
São computadores que anteriormente ocupavam um grande espaço e necessitavam de um ambiente especial para seu funcionamento, atualmente possuem o mesmo tamanho dos demais servidores de grande porte com menor consumo de energia elétrica. Os mainframes são capazes de realizar operações em grande velocidade e sobre um volume muito grande de dados.
Os mainframes têm a capacidade de executar diferentes sistemas operacionais, sendo seus recursos de hardware virtualizados através de um componente de hardware nativo (PR/SM) ou adicionalmente por software. Desta forma um único mainframe pode substituir dezenas ou mesmo centenas de servidores menores usando Máquinas virtuais.
Os mainframes surgiram com a necessidade das empresas em executar tarefas, que levavam dias para serem concluídas. Era preciso então criar um supercomputador capaz de executar estas tarefas em menos tempo e com mais precisão.

História[editar]


Um IBM 704.

Um IBM Z10.
Os mainframes nasceram em 1946 e foram sendo aperfeiçoados. Em 7 de abril de 1964, aIBM apresentou o System/360, mainframe que, na época, foi o maior projeto de uma empresa. Desde então, outras empresas – como a HP e a Burroughs (atual Unisys) – lançaram seus modelos de mainframe. Existem mainframes em operação no mundo inteiro.
Posteriormente a IBM lançou a série /370, e a Burroughs por sua vez lançou as máquinas de terceira geração: B-3500 e B-6500, sucedidas pela série 700: B-3700 e B-6700.
No fim da década de 1970, ao mesmo tempo que cresciam os sistemas destinados a grandes corporações, começaram a reduzir o tamanho de uma série das máquinas para chegar a clientes menores: a IBM lançou o /3 e a Burroughs a série B-1700 e posteriormente o B-700, máquinas de quarta geração, cujo software básico era escrito emMIL (Micro Implemented Language) e SDL (Software Development Language). Foram as primeiras máquinas Burroughs microprogramáveis, o que lhes dava uma flexibilidade impar. Estas máquinas marcaram o início do uso de circuitos integrados com tecnologia TTL com integração em média escala (MSI).
Atualmente a IBM produz quatro versões de mainframes, denominados System Z series, que modernizados, suportam diversos sistemas operacionais: z/OS, z/OS.e, z/VM, z/VSE, VSE/ESA, TPF, z/TPF e Linux on System z.
Hoje, segundo especialistas como Laudon e Laudon (2007)1 , há uma forte tendência de crescimento para este setor, inclusive com as novas versões do Cobol (principal linguagem usada nos Mainframes) usando ambiente gráfico.
A primeira empresa a usar o S/360 no Brasil foi a Bayer, empresa de produtos químicos, em 1966. Outras empresas e órgãos do governo adotaram o mainframe depois, como o governo do Estado de São Paulo, as Usiminas e em Paulo Afonso.
Desde então, outras empresas — como a HP e a Unisys — lançaram seus modelos de mainframe. Além disso, bastante coisa mudou no mundo da tecnologia. Na verdade, boa parte do mercado de informática que existe hoje surgiu depois do primeiro mainframe.
Foi só depois disso, por exemplo, que surgiu o circuito integrado --mais conhecido hoje em dia como chip semicondutor. Sem esses chips, dificilmente teriam surgidos os microprocessadores, que começaram a se tornar populares na década de 80.

Hardware[editar]

Como são computadores com capacidade dimensionada para aplicações que exijam grandes recursos, os mainframes possuem hardwares semelhantes como memórias, processadores, discos rígidos etc., porém o tamanho destes hardwares se diferem dos de computadores de outros portes, como servidores e desktops.

Processadores[editar]

Os Mainframes possuem um banco de processadores bastante versátil, capaz de suportar uma troca de processadores, inserção ou remoção sem precisar desligar o mainframe . Estes processadores são como pequenas caixas, com uma extremidade para a interface, que podem ser encaixados neste banco de processadores. Por efetuarem processos continuadamente e com sua capacidade próxima ao limite, ocorre um aquecimento excessivo do processador, sendo preciso ter um bom cooler e um sistema de refrigeração na sala onde está o mainframes.

Discos[editar]

Os discos podem ser substituídos sem que precise desligar o mainframe, os mesmos normalmente utilizam tecnologia RAID (Redundant Array of Inexpensive Disks) para gerenciar e armazenar dados. Atualmente os sistemas de discos para Mainframes são fornecidos não mais apenas pela própria IBM, mas também por empresas como Hitachi Data Systems (HDS) e EMC. Tornando esse segmento um negócio muito lucrativo devido a grande demanda mundial.

Fitas[editar]

Fitas normalmente são elementos essenciais em um mainframe, os discos armazenam o sistema operacional e os aplicativos que rodam no mainframe, mas os dados salvos são armazenados em uma fita de backup. E assim sucessivamente

Sistemas e Subsistemas[editar]

Sistemas Operacionais[editar]

No passado os sistemas operacionais desenvolvidos para mainframe eram criados especialmente para a finalidade de cada modelo, seja para processar textos, bancos de dados,efetuar cálculos ou gerenciar dispositivos. Eram baseados em sistemas próprios, sendo os mais conhecidos : MVS, VSE, VM, TPF (da IBM), OS2200, MCP (da Unisys), GCOS (da Bull), e outros de empresas como Fujitsu, Hitachi e Amdhal. Atualmente os Mainframes IBM suportam sistemas operacionais baseados na evolução destes sistemas como z/OS, z/VM, z/VSE e zTPF alem do sistema operacional Linux..

Subsistemas MVS[editar]

TSO (Time Sharing Option), é responsável pela interação entre o Sistema e o Operador. Possibilita checar as transações e permite a inserção de comandos no terminal para alocar arquivos e rodar programas. Ele funciona com base no ISPF que provê a interface baseada em menus e o acesso as aplicações do sistema.
VTAM (Virtual Telecommunications Access Method), é um subsistema que realiza a comunicação, via Rede entre uma aplicação e o terminal (ou outra aplicação). Ex: a conexão entre o Sistema do caixa eletrônico e o CICS ou o IMS.
Consoles (MCS Consoles), são dispositivos que estão fisicamente ligados a um sistema MVS que provê a comunicação básica entre os operadores e o sistema operacional.

Formas de Acesso[editar]

Existem dois tipos de acessos, o acesso físico e acesso logico.

Acesso físico.[editar]

É feito por meio de placas inseridas na parte posterior no mainframe, podendo ser de vários tipos, como cabos coaxiais, pares trançados e até fibra ótica. Esta placa pode ser ligada diretamente ao terminal ou a um repetidor de sinal, ligado a uma topologia de rede. Normalmente os mainframes estão centralizados em uma rede FDDI, uma rede extremamente rápida devido ao uso de fibra ótica, já que o Mainframe será acessado de vários lugares e não pode tolerar perda da taxa de transferência.

Acesso lógico.[editar]

O acesso lógico pode ser feito de várias formas: por um terminal que emula o sistema operacional do mainframe, chamados de “terminais burros” porque não são capazes de executar nenhuma operação interna; por sistemas operacionais Windows e Linux, em PC’s, através de programas como Client Access, que emulam o SO do mainframe, mas podem suportar várias sessões que trabalham paralelamente competindo pelo processador do mainframe e, por serem apenas um aplicativo, liberam o usuário para acessar outros recursos do PC, como processadores de texto, acesso à Internet etc.

Mainframes[editar]

A distinção entre supercomputadores e mainframes não é clara e direta, mas geralmente falando, os supercomputadores são utilizados na solução de problemas em que o tempo de cálculo é um limite, enquanto os mainframes são utilizados em tarefas que exigem alta disponibilidade e envolvem alta taxa de transferência de dados (internos ou externos ao sistema). Como consequência:
  • os supercomputadores são mais complexos do ponto de vista do programador, devido ao alto grau de paralelismo na execução das instruções e pelo fato de que, ao contrário dos mainframes, não existe uma camada de abstração que esconde estas questões;
  • os supercomputadores são otimizados para realização de tarefas complicadas utilizando principalmente a memória, enquanto osmainframes são otimizados para realizar tarefas que acessam grandes quantidades de informação oriunda de bases de dados;
  • normalmente os supercomputadores são utilizados em aplicações científicas e militares, enquanto os mainframes são voltados a aplicações civis, sejam governamentais ou empresariais. A análise de modelos de clima, análise estrutural de proteínas e processamento de filmes digitais são tarefas bastante apropriadas para os supercomputadores. O processamento de cartões de crédito, gerenciamento de contas bancárias, negociações mercantis e processamento de seguro social são tarefas normalmente realizadas por mainframes. (Uma exceção: certas aplicações militares exigem um nível de segurança muito alto, que é uma forte característica dos mainframes);
  • as tarefas executadas pelos supercomputadores toleram interrupções (por exemplo, cálculos de modelos de previsão deaquecimento global ou pesquisa acadêmica). Os mainframes executam tarefas que exigem alta disponibilidade, podendo executar serviços continuamente por anos (por exemplo, sistemas de emissão de passagens aéreas ou processamento de cartões de crédito);
  • os supercomputadores são construídos para atender uma finalidade específica. Os mainframes são construídos para realizar uma grande variedade de tarefas de execução diária;
  • os mainframes suportam totalmente o software antigo (no caso da IBM, inclusive aplicações escritas na década de 1960) convivendo com novas versões. No caso dos supercomputadores, a tendência é ignorar a compatibilidade retroativa de software no projeto de novos sistemas;
  • os mainframes possuem um grande número de processadores que auxiliam os processadores centrais. Eles são utilizados em funções de criptografia, gerenciamento de entrada/saída, monitoração do ambiente, manipulação de memória, e etc. Devido a esta característica o número de processadores dos mainframes é muito maior do que se esperaria. Os projetos de supercomputadores não incluem este grande número de processadores de uso específico já que eles não adicionam poder de processamento de cálculo.



Supercomputador



Exemplo de um supercomputador.
Supercomputador é um computador com altíssima velocidade de processamento e grande capacidade de memória. Tem aplicação em áreas de pesquisa que grande quantidade de processamento se faz necessária, como pesquisas militares, científica, química, medicina. Supercomputadores são usados para cálculos muito complexos e tarefas intensivas, como problemas envolvendo física quântica, mecânica, meteorologia, pesquisas de clima, modelagem molecular (computação nas estruturas e propriedades de compostos químicos, macromoléculas biológicas, polímeros e cristais) e simulações físicas, como simulação de aviões em túneis de vento, simulação da detonação de armas nucleares e investigação sobre a fusão nuclear.
Os primeiros supercomputadores foram criados na década de 1960 porSeymour Cray.Seymour Cray fundou sua própria empresa, a Cray Research, em 1970 e dominou o mercado da supercomputação durante 25 anos (1965-1990).
Na década de 70 a Universidade de Illinois montou em conjunto com a Burroughs Corporation o ILLIAC IV, um supercomputador que ficou famoso pelas dimensões.
ficção científica abordou o tema num romance chamado "Colossus".
Hoje os supercomputadores são fabricados por empresas como SUPERMICRONECSUN (esta foi comprada pela Oracle em 2010),IBMHPApple Inc., e etc. A lista atualizada dos 500 sistemas computacionais mais poderosos conhecidos pode ser obtida emtop500.org.

As principais características dos supercomputadores são:

Características[editar]

  • Velocidade de processamento: trilhões de operações de ponto flutuante por segundo (TFlops). Conforme ahttp://www.top500.org/lists/2011/11 lista Top500 de nov/2011], percebe-se que as empresas fabricantes de (super)computadores tendem a chamar seus próprios produtos de supercomputador (supercomputer) aqueles com processamento superior a 80 TFlops (68º posição até a 1º), e de servidor (server) aqueles com processamento entre 25 e 80 TFlops (500º posição até a 67º);
  • Tamanho: requerem instalações e sistemas de refrigeração especiais;
  • Dificuldade de uso: escolhido por especialistas;
  • Clientes usuais: grandes centros de pesquisa;
  • Penetração social: praticamente zero;
  • Impacto social: muito importante no espaço da investigação, a partir do momento em que fornece cálculos em alta velocidade, permitindo, por exemplo, analisar a ordem do genoma, o número pi, números complexos, o desenvolvimento de cálculos para problemas físicos que requerem uma baixíssima margem de erro, etc.
  • Parques instalados: menos de mil em qualquer lugar no mundo;
  • Custo: atualmente (2010) até centenas de milhões de dólares cada (~ US$ 225MM o Cray XT5);

Partes dos supercomputadores[editar]

Processadores vetoriais paralelos (PVP)[editar]

Sistemas compostos de poucos processadores poderosos. A interconexão é feita, em geral, por uma matriz de chaveamento (crossbar) de alta vazão. A memória é compartilhada, e os sistemas podem ser classificados como multiprocessadores UMA. Normalmente não utilizam memória cache, usando para essa função um grande número de registradores vetoriais e um buffer de instrução. Exemplos: Cray C-90 (máximo de 16 processadores), Cray T-90 (máximo de 32 processadores), Fujitsu VPP 700 (máximo de 256 processadores). O NEC SX-6 também é um PVP, e o Earth Simulator, que é um NEC SX-6, já foi o número 1 na lista das 500 máquinas mais poderosas do mundo, possuindo 5120 processadores. Atualmente o supercomputador mais poderoso do mundo chama-se "K Computer", instalado no Japão e possui 548352 nucleos de processamento.

Multiprocessadores simétricos (SMP)[editar]

Os Symmetric Multiprocessors são sistemas constituídos de processadores comerciais conectados a uma memória compartilhada, podendo também ser classificados como multiprocessadores UMA. Utilizam-se amplamente de memória cache e todos os processadores têm igual acesso ao barramento e à memória compartilhada. São mais fáceis de programar que máquinas que se comunicam por troca de mensagens, já que a forma de programação se aproxima daquela feita em sistemas convencionais, mas tem como desvantagem o uso de um barramento de interconexão (permitindo apenas uma transação por vez). Esta limitação pode reduzir a escalabilidade desta classe de sistemas, fazendo com que sistemas comerciais estejam, geralmente, limitados a 64 processadores. Exemplos: IBM R50 (máximo de 8 processadores), SGI Power Challenge (máximo de 36 processadores), SUN Ultra Enterprise 10000 (máximo de 64 processadores) e HP/Convex Exemplar X-Class (máximo de 32 nós de 16 processadores cada).

Máquinas maciçamente paralelas (MPP)[editar]

Os MPPs (Massively Parallel Processors) são multicomputadores NORMA construídos com milhares de processadores comerciais conectados por uma rede de alta velocidade. O alto desempenho é obtido com o grande número de processadores. O fato de haver troca de mensagens torna a programação mais difícil que nos casos em que a memória é compartilhada. Exemplos: Intel Paragon (máximo de 4000 processadores), Connection Machine CM-5 (máximo de 2048 processadores), IBM SP2 (máximo de 512 processadores) e Cray T3D (máximo de 2048 processadores).

Máquinas com memória compartilhada distribuída (DSM)[editar]

Nos sistemas DSM (Distributed Shared Memory), mesmo com a memória sendo distribuída entre os nós, todos os processadores podem acessar todas as memórias. O espaço de endereçamento único, o compartilhamento de dados e o controle de coerência de cache são conseguidos com software. Podem ser sistemas NUMA com memória entrelaçada distribuída, ou sistemas NORMA (com memórias locais), onde as memórias podem ser ligadas através de adaptadores de rede (AR) a uma rede de interconexão específica, que permite o acesso a memórias remotas. A máquina, nos dois casos, é considerada CC-NUMA ou SC-NUMA dependendo da implementação da coerência de cache. Exemplo: SGI Origin (máximo de 512 processadores).

Redes de estações de trabalho (NOW)[editar]

As redes de estações de trabalho (NOW – Network of Workstations) são constituídas de várias estações de trabalho interligadas por alguma tecnologia tradicional de rede, como Ethernet e ATM. Na prática são redes locais utilizadas na execução de aplicações paralelas. Podem ser vistas como máquinas NORMA de baixo custo, ou sem custo algum caso a rede já exista, ou seja, esta é uma solução significativamente mais barata em relação aos MPPs. A desvantagem clara que se vê em uma rede de estações de trabalho é o fato de que as redes tradicionais costumam ser usadas apenas em tarefas menores (para compartilhar arquivos e acessar impressoras remotas, por exemplo), e geralmente não são otimizadas para operações de comunicação de uma aplicação paralela. O resultado é uma alta latência nessas operações, o que compromete o desempenho da máquina como um todo. São usadas principalmente em instituições de ensino para o estudo de processamento paralelo e distribuído. Exemplo: Estações de trabalho interligadas por tecnologia Ethernet.



Servidor



Servidores Linux.
Em informática, um servidor é um sistema de computação centralizada que fornece serviços a uma rede de computadores. Esses serviços podem ser de natureza diversa, como por exemplo,arquivos e correio eletrônico. Os computadores que acessam os serviços de um servidor são chamados clientes. As redes que utilizam servidores são do tipo cliente-servidor, utilizadas em redes de médio e grande porte (com muitas máquinas) e em redes onde a questão da segurançadesempenha um papel de grande importância. O termo servidor é largamente aplicado a computadores completos, embora um servidor possa equivaler a um software ou a partes de um sistema computacional, ou até mesmo a uma máquina que não seja necessariamente um computador.
A história dos servidores tem, obviamente, a ver com as redes de computadores. Redes permitiam a comunicação entre diversos computadores, e, com o crescimento destas, surgiu a idéia de dedicar alguns computadores para prestar algum serviço à rede, enquanto outros se utilizariam destes serviços. Os servidores ficariam responsáveis pela primeira função.
Com o advento das redes, foi crescendo a necessidade das redes terem servidores e minicomputadores, o que acabou contribuindo para a diminuição do uso dos mainframes.
O crescimento das empresas de redes e o crescimento do uso da Internet entre profissionais e usuários comuns foi o grande impulso para o desenvolvimento e aperfeiçoamento de tecnologias para servidores.

Tipos de servidores[editar]


Servidores da Wikimedia Foundation.
Existem diversos tipos de servidores. Os mais conhecidos são:
  • Servidor de Fax: Servidor para transmissão e recepção automatizada de fax pela Internet, disponibilizando também a capacidade de enviar, receber e distribuir fax em todas as estações da NET.
  • Servidor de arquivos: Servidor que armazena arquivos de diversos usuários.
  • Servidor web: Servidor responsável pelo armazenamento de páginas de um determinadosite, requisitados pelos clientes através de browsers.
  • Servidor de e-mail: Servidor publicitário responsável pelo armazenamento, envio e recebimento de mensagens de correio eletrônico.
  • Servidor de impressão: Servidor responsável por controlar pedidos de impressão de arquivos dos diversos clientes.
  • Servidor de banco de dados: Servidor que possui e manipula informações contidas em um banco de dados
  • Servidor DNS: Servidores responsáveis pela conversão de endereços de sites emendereços IP e vice-versa.
  • Servidor proxy: Servidor que atua como um cache, armazenando páginas da internetrecém-visitadas, aumentando a velocidade de carregamento destas páginas ao chamá-las novamente.1
  • Servidor de imagens: Tipo especial de servidor de banco de dados, especializado em armazenar imagens digitais.
  • Servidor FTP: Permite acesso de outros usuários a um disco rígido ou servidor. Esse tipo de servidor armazena arquivos para dar acesso a eles pela internet.
  • Servidor webmail: servidor para criar emails na web.
  • Servidor de virtualização: permite a criação de máquinas virtuais (servidores isolados no mesmo equipamento) mediante compartilhamento de hardware, significa que, aumentar a eficiência energética, sem prejudicar as aplicações e sem risco de conflitos de uma consolidação real.
  • Servidor de sistema operacional: permite compartilhar o sistema operacional de uma máquina com outras, interligadas na mesma rede, sem que essas precisem ter um sistema operacional instalado, nem mesmo um HD próprio.
Os clientes e os servidores comunicam através de protocolos, assim como dois ou mais computadores de redes.
Um computador, ocasionalmente, pode prover mais de um serviço simultaneamente. Pode existir em uma rede, um computador que atue como um servidor web e servidor de banco de dados, por exemplo; ou um computador pode atuar como servidor de arquivos, de correio eletrônico e proxy ao mesmo tempo. Computadores que atuem como um único tipo de servidor é chamado de servidor dedicado. Os servidores dedicados possuem a vantagem de atender a uma requisição de um cliente mais rapidamente.

Um Cluster com três servidores.
Com exceção do servidor de banco de dados (um tipo de servidor de aplicação), os demais servidores apenas armazenam informações, ficando por conta do cliente o processamento das informações. No servidor de aplicações, os papéis se invertem, com o cliente recebendo o resultado do processamento de dados da máquina servidora.
Em uma rede heterogênea (com diversos hardwares e softwares) um cliente também pode ser um servidor e assim um servidor pode ser "cliente do cliente" tal como "servidor do servidor". Por exemplo, uma rede tem um servidor de impressão e um de arquivos, supondo que você está no servidor de arquivos e necessita imprimir uma folha de um documento que você está escrevendo, quando você mandar imprimir a folha o serviço do servidor de impressão será utilizado, e assim a máquina que você está usando, que é o servidor de arquivos, está sendo cliente do servidor de impressão, pois está utilizando de seu serviço.

Hardware e software de servidores[editar]

Hardware[editar]

Servidores dedicados, que possuem uma alta requisição de dados por partes dos clientes e que atuam em aplicações críticas utilizamhardware específico para servidores. Já servidores que não possuam essas atuações podem utilizar hardware de um computador comum.
Para começar, muitos servidores baseiam-se em entradas e saídas de informações (principalmente gravações e deleções de arquivos), o que implica interfaces de entrada e saída e discos rígidos de alto desempenho e confiabilidade. O tipo de disco rígido mais utilizado possui o padrão SCSI, que permite a interligação de vários periféricos, dispostos em arranjos RAID.
Devido a operar com muitas entradas e saídas de informações, os servidores necessitam de processadores de alta velocidade, algumas vezes alguns servidores são multi-processados, ou seja, possuem mais de um processador. Servidores também tem disponível uma grande quantidade de memória RAM, sendo geralmente usada para caching de dados.
Por ter de operar por muito tempo (frequentemente de maneira ininterrupta), alguns servidores são ligados a geradores elétricos. Outros utilizam sistemas de alimentação (por exemplo, o UPS) que continuam a alimentar o servidor caso haja alguma queda de tensão.
E, por operar durante longos intervalos de tempo, e devido à existência de um ou mais processadores de alta velocidade, os servidores precisam de um eficiente sistema de dissipação de calor, o que implica coolers mais caros, mais barulhentos, porém de maior eficiência e confiabilidade.
Existem outros hardwares específicos para servidor, especialmente placas, do tipo hot swapping, que permite a troca destes enquanto o computador está ligado, o que é primordial para que a rede continue a operar.
Discute-se muito sobre a utilização ou não de um micro comum, o popular Personal Computer (PC), como servidor e a necessidade de ou não de se adquirir um equipamento mais robusto para atuar como servidor. A resposta a essa questão depende da utilização do equipamento e da "criticidade" do serviço que o servidor está executando. Em uma estrutura não crítica, um computador comum pode ser usado como servidor. Note que o tamanho da rede não importa; por exemplo: uma empresa com 3 instrutores on-line na Internet tem 3 computadores e um deles é o servidor de acesso à Internet. Se este servidor falha o negócio da empresa está parado. [carece de fontes]
Prevendo esse tipo de necessidade, os fabricantes de componentes de computadores desenvolvem placas mais robustas, aplicam uma engenharia mais elaborada de ventilação, redundância de itens e capacidade de expansão ampliada, para que o servidor possa garantir a disponibilidade do serviço e a confiabilidade no mesmo. [carece de fontes]
Normalmente a preocupação em desenvolver servidores fica centrada em grandes fabricantes do mercado, que possuem equipes preparadas e laboratórios com esse fim.

Sistemas Operacionais[editar]

Para que funcione uma rede cliente-servidor, é necessário que no servidor esteja instalado um sistema operacional que reconheça esse tipo de rede. Os sistemas operacionais para redes cliente-servidor são:
Os sistemas operacionais Windows 95Windows 98 e Windows ME reconhecem somente redes do tipo ponto-a-ponto; e o sistema operacional DOS não tem suporte a qualquer tipo de rede.
Em servidores, o sistema Unix e sistemas baseados neste (como Linux e Solaris) são os sistemas mais utilizados para aplicações como Firewall e servidor web, ao passo que o sistema Windows, são mais utilizados para Gerenciamento de Usuários e serviços pela facilidade de operação e manutenção (AD).[carece de fontes]

Servidores na Internet[editar]

Internet, maior rede de computadores do mundo, utiliza o modelo cliente-servidor. Muitos servidores em todo o mundo são interligados e processam informações simultaneamente.
Alguns serviços oferecidos por servidores de internet são: páginas web, correio eletrônico, transferência de arquivos, acesso remoto, mensagens instantâneas e outros. É interessante notar que qualquer ação efetuada por um usuário envolve o trabalho de diversos servidores espalhados pelo mundo.

iPad

i
IPad é um dispositivo em formato tablete (tablet) produzido pela Apple Inc. O aparelho foi anunciado em 27 de janeiro de 2010, em uma conferência para imprensa no Yerba Buena Center for the Arts em São Francisco.2 Meses antes de seu anúncio, surgiram rumores do nome do aparelho: iSlate, iBook e iTablet, entre outros.

O iPad foi apresentado como um dispositivo situado a meio caminho entre umMacBook e um iPhone. O dispositivo utiliza o mesmo sistema operacional doiPhone, o iOS. A recepção inicial do iPad foi bastante misturada, com muitos entusiastas ficando contra o aparelho devido ao que percebem como limitações e com outros tantos demonstrando grande empolgação com facilidade de interação que a interface demonstra.


Quarta geração[editar]

No dia 12 de setembro de 2012, foi apresentada, por Tim Cook, a quarta geração dotablet, que apesar de ser idêntico em relação ao design com o seu antecessor, conta com um processador mais potente e também obteve melhorias em sua câmera dianteira (para video conferências). Todas as outras especificações são idênticas ao iPad 3, o que os tornam meramente idênticos.
Lançamento no Brasil[editar]

No Brasil, o iPad foi lançado dia 30 de novembro de 2010. A quarta e atual geração foi lançada no dia 14 de dezembro de 2012.
Polêmica sobre o nome iPad[editar]

Na semana em que o iPad é lançado no Brasil, a empresa brasileira Transform, especializada em produtos para a área médica, entrou com uma ação contra as distribuidoras do aparelho no país, principalmente a Fast Shop; alegando ter a propriedade da marca iPad. O produto da Transform em questão é o desfibrilador i-PAD Fast, cujo nome foi pedido solicitação no INPI (Instituto Nacional da Propriedade Industrial) no início de 2007, enquanto a Apple pediu em 16 de julho de 2009. Em defesa, a Apple alega que o nome é semelhante ao nome iPod, de seu domínio.3
Lançamento em Portugal[editar]

O iPad da primeira geração foi lançado em Portugal no dia 30 de novembro de 20104 , o lançamento do iPad 2 aconteceu em 25 de março de 2011 em Portugal5 e o novo iPad foi lançado a 23 de março de 20126 .
iPad no ensino[editar]

Em 2013 o governo de Andorra decide obrigar todos os alunos do ensino público a comprar uma tablete Apple para uso escolar7 8 . O objetivo, em declarações feitas a imprensa andorrana, é evitar que alunos carreguem com livros pesados que prejudicam claramente a sua saúde, mesmo se num princípio o iPad não vai substituir completamente os livros9 . Sendo assim, Andorra transformou-se no primeiro pais da Europa em apostar na tablete como meio de ensino, deixando os computadores considerados pelo governo mais caros. 

A decisão criou em seguida grande polémica no pequeno pais, pois nem todas as famílias têm recursos suficientes para pagar uma tablete de preço elevado10 . Entre as críticas também há quem diga que o iPad é um material muito frágil em mãos de crianças que podem fazê-lo cair e estragar facilmente. Para acalmar a povoação, o governo assegurou que todas as famílias com dificuldades financeiras podem recorrer ao pagamento em prazos, que a tablete da Apple foi escolhida porque é a única no mercado em oferecer um espaço de ensino e pedagógico óptimo, e que o iPad permite controlar o aluno de maneira eficaz. Ou seja, evitar que tente baixar aplicações que não tenham nada a ver com as aulas11 . A decisão não foi criticada pelo professorado, paradoxalmente, que além disso recebeu formação antes de começar as aulas12 . Formação garantida pela Apple.
Especificações 1ª geração (2010)[editar]


Físicas
9.4 mm de largura
Peso: Wi-Fi: 680g / Wi-Fi+3G: 730g
9.7 polegadas
Cor: Preto
VMRJLD <3 
Processador e memória
Chip de 1 GHz Apple A4
Memória flash de 16, 32 ou 64 GB 
Tela
1024x768 pixeis de resolução



Comunicação
Bluetooth 2.1 + EDR
Wi-Fi - 802.11a/b/g/n
3G (usando um GSM micro-SIM)
GPS assistido (apenas nos modelos 3G) 
Sensores
Acelerômetro
Bússola
Luminosidade
Tela multitoque 
Bateria
10 horas de autonomia, 30 dias em modo stand-by

Especificações 2ª geração (2011)[editar]
Ver artigo principal: iPad 2


Físicas
8.8 mm de largura
Peso: Wi-Fi: 601g / Wi-Fi+3G: 613g
9.7 polegadas
Cores: Preta e Branca 
Processador e memória
Chip Dual-Core 1Ghz Apple A5
Memória flash de 16, 32 ou 64 GB 
Tela
1024x768 pixeis de resolução



Comunicação
Bluetooth 2.1 + EDR
Wi-Fi - 802.11a/b/g/n
3G (usando um GSM micro-SIM)
GPS assistido (apenas nos modelos 3G) 
Sensores
Acelerômetro
Bússola
Tela multitoque
Giroscópio 
Bateria
10 horas de autonomia, 1 mês em modo stand-by

Especificações 3ª geração (2012)[editar]
Ver artigo principal: iPad (3ª geração)


Físicas
9.4 mm de largura
Peso: Wi-Fi: 652g / Wi-Fi+4G: 662g



Processador e memória
Chip Apple A5X 1.0 GHz dual core com gráficos quad-core
Memória flash de 16, 32 ou 64 GB 
Tela
visor retina
Fingerprint resistente revestimento oleophobic
2048×1536 pixeis de resolução com 264 dpi


Comunicação
Sensores
  • Acelerômetro
  • Bússola
  • Tela multitoque
  • Giroscópio