Podcasts de história

IBM apresenta o System 360 - História

IBM apresenta o System 360 - História

A International Business Machines (IBM) apresentou o sistema 360 Comptuter. O computador, que era um computador de segunda geração baseado em transistores, foi um grande sucesso e se tornou o computador principal de muitas empresas por muitos anos.

Em 1911, Charles F. Flint, um organizador fiduciário, supervisionou a fusão da Tabulating Machine Company de Herman Hollerith com duas outras: a Computing Scale Company of America e a International Time Recording Company. As três empresas se fundiram em uma empresa chamada Computing-Tabulating-Recording Company ou C-T-R. A C-T-R vendeu muitos produtos diferentes, incluindo cortadores de queijo, no entanto, eles logo se concentraram na fabricação e comercialização de máquinas de contabilidade, tais como: registradores de tempo, registradores de discagem, tabuladores e balanças automáticas.

Em 1914, um ex-executivo da National Cash Register Company, Thomas J. Watson, Senior tornou-se o gerente geral da C-T-R. De acordo com os historiadores da IBM, "Watson implementou uma série de táticas de negócios eficazes. Ele pregou uma perspectiva positiva e seu slogan favorito," PENSE ", tornou-se um mantra para os funcionários da CTR. 11 meses após ingressar na CTR, Watson tornou-se seu presidente . A empresa se concentrou em fornecer soluções de tabulação em grande escala e personalizadas para empresas, deixando o mercado de produtos de pequenos escritórios para outros. Durante os primeiros quatro anos de Watson, as receitas mais do que dobraram para US $ 9 milhões. Ele também expandiu as operações da empresa para a Europa , América do Sul, Ásia e Austrália. "


Conteúdo

Os primeiros computadores eram mainframes que careciam de qualquer forma de sistema operacional. Cada usuário tinha uso exclusivo da máquina por um período de tempo programado e chegava ao computador com o programa e os dados, geralmente em cartões de papel perfurados e fita magnética ou de papel. O programa seria carregado na máquina e a máquina seria configurada para funcionar até que o programa fosse concluído ou travado. Os programas geralmente podem ser depurados por meio de um painel de controle usando dials, interruptores de alternância e luzes do painel.

Linguagens simbólicas, montadores, [1] [2] [3] e compiladores foram desenvolvidos para programadores traduzirem código de programa simbólico em código de máquina que anteriormente teria sido codificado manualmente. Máquinas posteriores vieram com bibliotecas de código de suporte em cartões perfurados ou fita magnética, que seriam vinculadas ao programa do usuário para auxiliar em operações como entrada e saída. Esta foi a gênese do sistema operacional moderno, entretanto, as máquinas ainda executavam uma única tarefa por vez. Na Universidade de Cambridge, na Inglaterra, a fila de empregos era antigamente um varal onde fitas eram penduradas com prendedores de roupas de cores diferentes para indicar a prioridade do trabalho. [ citação necessária ]

À medida que as máquinas se tornavam mais potentes, o tempo para executar programas diminuía e o tempo para entregar o equipamento ao próximo usuário tornava-se grande em comparação. A contabilização e o pagamento do uso da máquina passaram da verificação do relógio de parede para o registro automático pelo computador. As filas de execução evoluíram de uma fila literal de pessoas na porta, para uma pilha de mídia em uma mesa de espera de trabalhos, ou lotes de cartões perfurados empilhados um em cima do outro no leitor, até que a própria máquina fosse capaz de selecionar e sequenciar quais unidades de fita magnética processaram quais fitas. Onde os desenvolvedores de programas tinham originalmente acesso para executar seus próprios trabalhos na máquina, eles foram substituídos por operadores de máquina dedicados que cuidavam da máquina e estavam cada vez menos preocupados com a implementação manual de tarefas. Quando os centros de computação disponíveis comercialmente foram confrontados com as implicações da perda de dados por meio de adulteração ou erros operacionais, os fornecedores de equipamentos foram pressionados a aprimorar as bibliotecas de tempo de execução para evitar o uso indevido dos recursos do sistema. O monitoramento automatizado era necessário não apenas para o uso da CPU, mas também para contar páginas impressas, cartões perfurados, cartões lidos, armazenamento em disco usado e para sinalizar quando a intervenção do operador era necessária em trabalhos como a troca de fitas magnéticas e formulários em papel. Recursos de segurança foram adicionados aos sistemas operacionais para registrar trilhas de auditoria de quais programas estavam acessando quais arquivos e para impedir o acesso a um arquivo de folha de pagamento de produção por um programa de engenharia, por exemplo.

Todos esses recursos foram construídos em direção ao repertório de um sistema operacional totalmente capaz. Eventualmente, as bibliotecas de tempo de execução se tornaram um programa amalgamado que foi iniciado antes do primeiro trabalho do cliente e podia ler no trabalho do cliente, controlar sua execução, registrar seu uso, reatribuir recursos de hardware após o término do trabalho e imediatamente prosseguir para processar o próximo trabalho. Esses programas residentes em segundo plano, capazes de gerenciar processos de várias etapas, eram freqüentemente chamados de monitores ou programas de monitoramento antes do termo "sistema operacional" se estabelecer.

Um programa subjacente que oferece gerenciamento básico de hardware, programação de software e monitoramento de recursos pode parecer um ancestral remoto dos sistemas operacionais orientados ao usuário da era da computação pessoal. Mas houve uma mudança no significado de SO. Assim como os primeiros automóveis não tinham velocímetros, rádios e aparelhos de ar condicionado que mais tarde se tornaram padrão, mais e mais recursos de software opcionais se tornaram recursos padrão em todos os pacotes de sistema operacional, embora alguns aplicativos, como sistemas de gerenciamento de banco de dados e planilhas permaneçam opcionais e com preços separados. Isso levou à percepção de um SO como um sistema de usuário completo com uma interface gráfica de usuário integrada, utilitários, alguns aplicativos, como editores de texto e gerenciadores de arquivos, e ferramentas de configuração.

O verdadeiro descendente dos primeiros sistemas operacionais é o que agora é chamado de "kernel". Nos círculos técnicos e de desenvolvimento, o antigo sentido restrito de um sistema operacional persiste devido ao desenvolvimento ativo contínuo de sistemas operacionais incorporados para todos os tipos de dispositivos com um componente de processamento de dados, de dispositivos portáteis a robôs industriais e controle em tempo real. sistemas, que não executam aplicativos de usuário no front-end. Um sistema operacional embutido em um dispositivo hoje não está tão distante quanto se poderia pensar de seu ancestral dos anos 1950.

As categorias mais amplas de sistemas e software de aplicativo são discutidas no artigo de software de computador.

O primeiro sistema operacional usado para trabalho real foi o GM-NAA I / O, produzido em 1956 pela divisão de Pesquisa da General Motors [4] para seu IBM 704. [5] [ especificamos ] A maioria dos outros sistemas operacionais anteriores para mainframes IBM também foram produzidos por clientes. [6]

Os primeiros sistemas operacionais eram muito diversos, com cada fornecedor ou cliente produzindo um ou mais sistemas operacionais específicos para seu computador mainframe em particular. Cada sistema operacional, mesmo do mesmo fornecedor, pode ter modelos radicalmente diferentes de comandos, procedimentos operacionais e recursos como auxiliares de depuração. Normalmente, cada vez que o fabricante trazia uma nova máquina, haveria um novo sistema operacional e a maioria dos aplicativos teria que ser manualmente ajustada, recompilada e testada novamente.

Edição de sistemas em hardware IBM

A situação continuou até a década de 1960, quando a IBM, já um fornecedor líder de hardware, parou de trabalhar nos sistemas existentes e colocou todo o seu esforço no desenvolvimento da série de máquinas System / 360, todas as quais usavam o mesmo instrução e arquitetura de entrada / saída. A IBM pretendia desenvolver um único sistema operacional para o novo hardware, o OS / 360. Os problemas encontrados no desenvolvimento do OS / 360 são lendários e descritos por Fred Brooks em O Mítico Homem-Mês—Um livro que se tornou um clássico da engenharia de software. Por causa das diferenças de desempenho em toda a gama de hardware e atrasos no desenvolvimento de software, uma família inteira de sistemas operacionais foi introduzida em vez de um único OS / 360. [7] [8]

A IBM acabou lançando uma série de interrupções seguidas por dois sistemas operacionais de vida mais longa:

    para sistemas de médio e grande porte. Isso estava disponível em três opções de geração de sistema:
      para os primeiros usuários e para aqueles sem recursos para multiprogramação. para sistemas de médio porte, substituído pelo MFT-II no OS / 360 versão 15/16. Este teve um sucessor, OS / VS1, que foi descontinuado na década de 1980. para grandes sistemas. Isso era semelhante em muitos aspectos ao PCP e MFT (a maioria dos programas poderia ser transferido entre os três sem ser recompilado), mas tem um gerenciamento de memória mais sofisticado e um recurso de compartilhamento de tempo, o TSO. O MVT teve vários sucessores, incluindo o z / OS atual.

    A IBM manteve total compatibilidade com o passado, de modo que os programas desenvolvidos nos anos 60 ainda podem ser executados em z / VSE (se desenvolvido para DOS / 360) ou z / OS (se desenvolvido para MFT ou MVT) sem alterações.

    A IBM também desenvolveu o TSS / 360, um sistema de compartilhamento de tempo para o System / 360 Modelo 67. Compensando a importância percebida de desenvolver um sistema de tempo compartilhado, eles colocaram centenas de desenvolvedores para trabalhar no projeto. Os primeiros lançamentos do TSS eram lentos e não confiáveis ​​quando o TSS tinha desempenho e confiabilidade aceitáveis, a IBM queria que seus usuários de TSS migrassem para OS / 360 e OS / VS2 enquanto a IBM oferecia um PRPQ TSS / 370, eles o abandonaram após 3 lançamentos. [9]

    Diversos sistemas operacionais para as arquiteturas IBM S / 360 e S / 370 foram desenvolvidos por terceiros, incluindo Michigan Terminal System (MTS) e MUSIC / SP.

    Outros sistemas operacionais de mainframe Editar

    A Control Data Corporation desenvolveu os sistemas operacionais SCOPE [NB 1] na década de 1960, para processamento em lote e, posteriormente, desenvolveu o sistema operacional MACE para compartilhamento de tempo, que foi a base para o posterior Kronos. Em cooperação com a Universidade de Minnesota, o Kronos e, posteriormente, os sistemas operacionais NOS foram desenvolvidos durante a década de 1970, que suportavam o uso simultâneo em lote e tempo compartilhado. Como muitos sistemas comerciais de compartilhamento de tempo, sua interface era uma extensão do sistema de compartilhamento de tempo DTSS, um dos esforços pioneiros em compartilhamento de tempo e linguagens de programação.

    No final dos anos 1970, a Control Data e a University of Illinois desenvolveram o sistema PLATO, que usava telas de plasma e redes de compartilhamento de tempo de longa distância. O PLATO foi notavelmente inovador para a época, o modelo de memória compartilhada da linguagem de programação TUTOR do PLATO permitiu aplicativos como bate-papo em tempo real e jogos gráficos multiusuário.

    Para o UNIVAC 1107, a UNIVAC, o primeiro fabricante comercial de computadores, produziu o sistema operacional EXEC I, e a Computer Sciences Corporation desenvolveu o sistema operacional EXEC II e o entregou à UNIVAC. EXEC II foi portado para o UNIVAC 1108. Posteriormente, UNIVAC desenvolveu o sistema operacional EXEC 8 para o 1108, que foi a base para sistemas operacionais para membros posteriores da família. Como todos os primeiros sistemas de mainframe, EXEC I e EXEC II eram um sistema orientado por lote que gerenciava tambores magnéticos, discos, leitores de cartão e impressoras de linha. EXEC 8 suportava processamento em lote e processamento de transações on-line. Na década de 1970, o UNIVAC produziu o sistema Real-Time Basic (RTB) para suportar o compartilhamento de tempo em grande escala, também padronizado após o sistema Dartmouth BASIC.

    A Burroughs Corporation apresentou o B5000 em 1961 com o sistema operacional MCP (Master Control Program). O B5000 era um stack machine projetado para suportar exclusivamente linguagens de alto nível, sem software, nem mesmo no nível mais baixo do sistema operacional, sendo escrito diretamente em linguagem de máquina ou assembly o MCP foi o primeiro [ citação necessária ] OS deve ser escrito inteiramente em uma linguagem de alto nível - ESPOL, um dialeto do ALGOL 60 - embora ESPOL tenha declarações especializadas para cada "sílaba" [NB 2] no conjunto de instruções B5000. O MCP também introduziu muitas outras inovações revolucionárias, como ser uma das [NB 3] primeiras implementações comerciais de memória virtual. A reescrita do MCP para o B6500 ainda está em uso hoje na linha de computadores Unisys ClearPath / MCP.

    A GE apresentou a série GE-600 com o sistema operacional General Electric Comprehensive Operating Supervisor (GECOS) em 1962. Depois que a Honeywell adquiriu o negócio de computadores da GE, ele foi renomeado para General Comprehensive Operating System (GCOS). A Honeywell expandiu o uso do nome GCOS para cobrir todos os seus sistemas operacionais na década de 1970, embora muitos de seus computadores não tivessem nada em comum com a série GE 600 anterior e seus sistemas operacionais não fossem derivados do GECOS original.

    O projeto MAC no MIT, trabalhando com a GE e a Bell Labs, desenvolveu o Multics, que introduziu o conceito de níveis de privilégio de segurança em anel.

    A Digital Equipment Corporation desenvolveu o TOPS-10 para sua linha PDP-10 de computadores de 36 bits em 1967. Antes do uso generalizado do Unix, o TOPS-10 era um sistema particularmente popular nas universidades e na comunidade ARPANET inicial. Bolt, Beranek e Newman desenvolveram o TENEX para um PDP-10 modificado que suportava paginação por demanda - outro sistema popular nas comunidades de pesquisa e ARPANET, e mais tarde foi desenvolvido pelo DEC em TOPS-20.

    A Scientific Data Systems / Xerox Data Systems desenvolveu vários sistemas operacionais para a série de computadores Sigma, como o Basic Control Monitor (BCM), o Batch Processing Monitor (BPM) e o Basic Time-Sharing Monitor (BTM). Mais tarde, BPM e BTM foram sucedidos pelo Universal Time-Sharing System (UTS), que foi projetado para fornecer serviços de multiprogramação para programas de usuário online (interativos), além de trabalhos de produção em modo lote. Foi sucedido pelo CP-V sistema operacional, que combinava UTS com o Sistema Operacional Xerox altamente orientado para lotes.

    A Digital Equipment Corporation criou vários sistemas operacionais para suas máquinas PDP-11 de 16 bits, incluindo o sistema RT-11 simples, os sistemas operacionais RSTS de compartilhamento de tempo e a família RSX-11 de sistemas operacionais em tempo real, bem como o Sistema VMS para as máquinas VAX de 32 bits.

    Vários concorrentes da Digital Equipment Corporation, como Data General, Hewlett-Packard e Computer Automation, criaram seus próprios sistemas operacionais. Um deles, "MAX III", foi desenvolvido para computadores Modular Computer Systems Modcomp II e Modcomp III. Caracterizou-se por ter como mercado alvo o mercado de controle industrial. As bibliotecas Fortran incluíam uma que permitia o acesso a dispositivos de medição e controle.

    A principal inovação da IBM em sistemas operacionais nesta classe (que eles chamam de "mid-range"), foi seu "CPF" para o System / 38. Ele tinha endereçamento baseado em capacidade, usava uma arquitetura de interface de máquina para isolar o software do aplicativo e a maior parte do sistema operacional das dependências de hardware (incluindo até detalhes como tamanho do endereço e tamanho do registro) e incluía um RDBMS integrado. O OS / 400 seguinte para o AS / 400 não possui arquivos, apenas objetos de diferentes tipos e esses objetos persistem em uma memória virtual plana muito grande, chamada de armazenamento de nível único. i5 / OS e posterior IBM i para iSeries continuam esta linha de sistema operacional.

    O sistema operacional Unix foi desenvolvido na AT & ampT Bell Laboratories no final dos anos 1960, originalmente para o PDP-7 e, posteriormente, para o PDP-11. Por ser essencialmente gratuito nas primeiras edições, facilmente obtido e facilmente modificado, obteve ampla aceitação. Também se tornou um requisito nas empresas operacionais de sistemas Bell. Por ter sido escrito na linguagem C, quando essa linguagem foi portada para uma nova arquitetura de máquina, o Unix também foi capaz de ser portado. Essa portabilidade permitiu que ele se tornasse a escolha para uma segunda geração de minicomputadores e a primeira geração de estações de trabalho. Com o uso generalizado, exemplificou a ideia de um sistema operacional que era conceitualmente o mesmo em várias plataformas de hardware e, mais tarde, tornou-se uma das raízes dos projetos de software livre e de sistema operacional de software livre, incluindo GNU, Linux e Berkeley Software Distribution. O macOS da Apple também é baseado em Unix via NeXTSTEP [10] e FreeBSD. [11]

    O sistema operacional Pick era outro sistema operacional disponível em uma ampla variedade de marcas de hardware. Lançado comercialmente em 1973, seu núcleo era uma linguagem semelhante ao BASIC chamada Data / BASIC e uma linguagem de manipulação de banco de dados no estilo SQL chamada INGLÊS. Licenciado para uma grande variedade de fabricantes e fornecedores, no início da década de 1980, os observadores viram o sistema operacional Pick como um forte concorrente do Unix. [12]

    A partir de meados da década de 1970, uma nova classe de pequenos computadores entrou no mercado. Apresentando processadores de 8 bits, normalmente o MOS Technology 6502, Intel 8080, Motorola 6800 ou o Zilog Z80, junto com interfaces rudimentares de entrada e saída e tanta RAM quanto possível, esses sistemas começaram como computadores amadores baseados em kit, mas logo evoluíram para uma ferramenta de negócios essencial.

    Editar computadores domésticos

    Enquanto muitos computadores domésticos de oito bits da década de 1980, como BBC Micro, Commodore 64, série Apple II, Atari 8 bits, Amstrad CPC, série ZX Spectrum e outros podiam carregar um sistema operacional de carregamento de disco de terceiros , como CP / M ou GEOS, geralmente eram usados ​​sem um. Seus sistemas operacionais integrados foram projetados em uma época em que as unidades de disquete eram muito caras e não se esperava que fossem usadas pela maioria dos usuários, então o dispositivo de armazenamento padrão na maioria era uma unidade de fita usando cassetes compactas padrão. A maioria, senão todos, desses computadores vem com um interpretador BASIC embutido na ROM, que também serviu como uma interface de linha de comando simples, permitindo ao usuário carregar um sistema operacional de disco separado para executar comandos de gerenciamento de arquivos e carregar e salvar em disco. O mais popular [ citação necessária ] computador doméstico, o Commodore 64, foi uma exceção notável, pois seu DOS estava em ROM no hardware da unidade de disco e a unidade era endereçada de forma idêntica a impressoras, modems e outros dispositivos externos.

    Além disso, esses sistemas eram enviados com quantidades mínimas de memória de computador - 4-8 kilobytes era o padrão nos primeiros computadores domésticos - bem como processadores de 8 bits sem circuitos de suporte especializados, como um MMU ou mesmo um relógio de tempo real dedicado. Nesse hardware, a sobrecarga de um sistema operacional complexo suportando várias tarefas e usuários provavelmente comprometeria o desempenho da máquina sem realmente ser necessário. Como esses sistemas foram vendidos em grande parte completos, com uma configuração de hardware fixa, também não havia necessidade de um sistema operacional para fornecer drivers para uma ampla gama de hardware para eliminar as diferenças.

    Os videogames e até mesmo as planilhas, bancos de dados e processadores de texto disponíveis para computadores domésticos eram, em sua maioria, programas independentes que assumiam o controle total da máquina. Embora existisse software integrado para esses computadores, eles geralmente careciam de recursos em comparação com seus equivalentes independentes, em grande parte devido às limitações de memória. A troca de dados era realizada principalmente por meio de formatos padrão, como texto ASCII ou CSV, ou por meio de programas especializados de conversão de arquivos.

    Sistemas operacionais em videogames e consoles Editar

    Uma vez que praticamente todos os consoles de videogame e gabinetes de fliperama projetados e construídos após 1980 eram verdadeiras máquinas digitais baseadas em microprocessadores (ao contrário das anteriores Pong clones e derivados), alguns deles carregavam uma forma mínima de BIOS ou jogo embutido, como o ColecoVision, o Sega Master System e o SNK Neo Geo.

    Os consoles de jogos e videogames modernos, começando com o PC-Engine, todos têm um BIOS mínimo que também fornece alguns utilitários interativos, como gerenciamento de cartão de memória, reprodução de CD de áudio ou vídeo, proteção contra cópia e às vezes carregam bibliotecas para os desenvolvedores usarem, etc. Poucos desses casos, no entanto, seriam qualificados como um verdadeiro sistema operacional.

    As exceções mais notáveis ​​são provavelmente o console de jogos Dreamcast, que inclui um BIOS mínimo, como o PlayStation, mas pode carregar o sistema operacional Windows CE a partir do disco do jogo, permitindo a fácil portabilidade de jogos do mundo do PC, e o console de jogos Xbox, que é pouco mais do que um PC baseado em Intel disfarçado executando uma versão modificada e secreta do Microsoft Windows em segundo plano. Além disso, existem versões do Linux que rodam em um Dreamcast e em consoles de jogos posteriores.

    Muito antes disso, a Sony havia lançado um tipo de kit de desenvolvimento chamado Net Yaroze para sua primeira plataforma PlayStation, que fornecia uma série de ferramentas de programação e desenvolvimento para serem usadas com um PC normal e um "Black PlayStation" especialmente modificado com interface com um PC e baixe programas dele. Essas operações requerem, em geral, um sistema operacional funcional em ambas as plataformas envolvidas.

    Em geral, pode-se dizer que consoles de videogame e máquinas operadas por moedas usavam no máximo um BIOS integrado durante as décadas de 1970, 1980 e a maior parte da década de 1990, enquanto a partir da era PlayStation e além começaram a ficar cada vez mais sofisticados, a ponto de exigir um sistema operacional genérico ou personalizado para auxiliar no desenvolvimento e na capacidade de expansão.

    Edição da era do computador pessoal

    O desenvolvimento de microprocessadores tornou a computação barata disponível para pequenas empresas e amadores, o que por sua vez levou ao uso generalizado de componentes de hardware intercambiáveis ​​usando uma interconexão comum (como o S-100, SS-50, Apple II, ISA e PCI ônibus), e uma necessidade crescente de sistemas operacionais "padrão" para controlá-los. O mais importante dos primeiros sistemas operacionais nessas máquinas foi o CP / M-80 da Digital Research para as CPUs 8080/8085 / Z-80. Ele foi baseado em vários sistemas operacionais da Digital Equipment Corporation, principalmente para a arquitetura PDP-11. O primeiro sistema operacional da Microsoft, MDOS / MIDAS, foi projetado junto com muitos dos recursos do PDP-11, mas para sistemas baseados em microprocessador. O MS-DOS, ou PC DOS quando fornecido pela IBM, foi projetado para ser semelhante ao CP / M-80. [13] Cada uma dessas máquinas tinha um pequeno programa de boot na ROM que carregava o próprio sistema operacional do disco. O BIOS nas máquinas da classe IBM-PC foi uma extensão dessa ideia e agregou mais recursos e funções nos 20 anos desde que o primeiro IBM-PC foi lançado em 1981.

    O custo decrescente de equipamentos de exibição e processadores tornou prático fornecer interfaces gráficas de usuário para muitos sistemas operacionais, como o X Window System genérico que é fornecido com muitos sistemas Unix, ou outros sistemas gráficos, como o clássico Mac OS e macOS da Apple, o OS-9 Nível II / MultiVue da Radio Shack Color Computer, AmigaOS da Commodore, Atari TOS, OS / 2 da IBM e Microsoft Windows. A GUI original foi desenvolvida no sistema de computador Xerox Alto no Xerox Palo Alto Research Center no início da década de 1970 e comercializada por muitos fornecedores nas décadas de 1980 e 1990.

    Desde o final da década de 1990, houve três sistemas operacionais amplamente usados ​​em computadores pessoais: o macOS da Apple Inc., o Linux de código aberto e o Microsoft Windows. Desde 2005 e a transição do Mac para os processadores Intel, todos foram desenvolvidos principalmente na plataforma x86, embora o macOS tenha mantido o suporte para PowerPC até 2009 e o Linux continue sendo portado para uma infinidade de arquiteturas, incluindo 68k, PA-RISC e DEC Alpha, que foram substituídos e fora de produção, e SPARC e MIPS, que são usados ​​em servidores ou sistemas embarcados, mas não mais para computadores desktop. Outros sistemas operacionais, como AmigaOS e OS / 2, permanecem em uso, principalmente por entusiastas de retrocomputação ou para aplicativos embarcados especializados.

    Sistemas operacionais móveis Editar

    No início da década de 1990, a Psion lançou o Psion Series 3 PDA, um pequeno dispositivo de computação móvel. Suportava aplicativos escritos pelo usuário em execução em um sistema operacional chamado EPOC. Versões posteriores do EPOC tornaram-se Symbian, um sistema operacional usado para telefones celulares da Nokia, Ericsson, Sony Ericsson, Motorola, Samsung e telefones desenvolvidos para NTT Docomo pela Sharp, Fujitsu e amp Mitsubishi. Symbian era o sistema operacional para smartphones mais usado no mundo até 2010, com um pico de participação de mercado de 74% em 2006. Em 1996, a Palm Computing lançou o Pilot 1000 e o Pilot 5000, executando o Palm OS. O Microsoft Windows CE foi a base para o Pocket PC 2000, renomeado para Windows Mobile em 2003, que em seu auge em 2007 foi o sistema operacional mais comum para smartphones nos EUA.

    Em 2007, a Apple lançou o iPhone e seu sistema operacional, conhecido simplesmente como iPhone OS (até o lançamento do iOS 4), que, como o Mac OS X, é baseado no Darwin, do tipo Unix. Além desses fundamentos, também introduziu uma interface gráfica de usuário poderosa e inovadora que mais tarde também foi usada no computador tablet iPad. Um ano depois, o Android, com sua própria interface gráfica do usuário, foi introduzido, baseado em um kernel Linux modificado, e a Microsoft voltou a entrar no mercado de sistema operacional móvel com o Windows Phone em 2010, que foi substituído pelo Windows 10 Mobile em 2015.

    Além desses, uma ampla gama de outros sistemas operacionais móveis estão competindo nesta área.

    Os sistemas operacionais originalmente eram executados diretamente no próprio hardware e forneciam serviços aos aplicativos, mas com a virtualização, o próprio sistema operacional é executado sob o controle de um hipervisor, em vez de estar no controle direto do hardware.

    Em mainframes, a IBM introduziu a noção de máquina virtual em 1968 com CP / CMS no IBM System / 360 Model 67, e estendeu isso mais tarde em 1972 com Virtual Machine Facility / 370 (VM / 370) em System / 370.

    Em computadores pessoais baseados em x86, a VMware popularizou essa tecnologia com seu produto de 1999, VMware Workstation, [14] e seus produtos 2001 VMware GSX Server e VMware ESX Server. [15] Mais tarde, uma ampla gama de produtos de outros, incluindo Xen, KVM e Hyper-V significou que em 2010 foi relatado que mais de 80 por cento das empresas tinham um programa ou projeto de virtualização em vigor, e que 25 por cento de todos as cargas de trabalho do servidor estariam em uma máquina virtual. [16]

    Com o tempo, a linha entre máquinas virtuais, monitores e sistemas operacionais foi borrada:

    • Os hipervisores ficaram mais complexos, ganhando sua própria interface de programação de aplicativos, [17] gerenciamento de memória ou sistema de arquivos. [18]
    • A virtualização se torna um recurso chave dos sistemas operacionais, conforme exemplificado por KVM e LXC no Linux, Hyper-V no Windows Server 2008 ou HP Integrity Virtual Machines no HP-UX.
    • Em alguns sistemas, como servidores baseados em POWER5 e POWER6 da IBM, o hipervisor não é mais opcional. [19]
    • Sistemas operacionais radicalmente simplificados, como CoreOS, foram projetados para funcionar apenas em sistemas virtuais. [20]
    • Os aplicativos foram reprojetados para serem executados diretamente em um monitor de máquina virtual. [21]

    De muitas maneiras, o software de máquina virtual hoje desempenha a função anteriormente desempenhada pelo sistema operacional, incluindo o gerenciamento de recursos de hardware (processador, memória, dispositivos de E / S), aplicação de políticas de agendamento ou permitindo que administradores de sistema gerenciem o sistema.


    IBM apresenta a série 1400

    O mainframe 1401, o primeiro da série, substitui a tecnologia anterior de válvula a vácuo por transistores menores e mais confiáveis. A demanda exigia mais de 12.000 dos 1.401 computadores, e o sucesso da máquina justificou o uso de computadores de uso geral em vez de sistemas especializados. Em meados da década de 1960, quase metade de todos os computadores do mundo eram IBM 1401s.

    Linha de atraso magnetostritiva Ferranti Sirius


    IBM 2321 Data Cell Drive

    Sete anos em construção, o IBM 2321 Data Cell Drive armazenava até 400 MB. O Data Cell Drive foi anunciado com o computador mainframe System / 360. Largas fitas magnéticas foram retiradas de latas e enroladas em um cilindro giratório para leitura e escrita. Problemas de confiabilidade afetaram os modelos iniciais, mas depois que as melhorias foram feitas, ele se tornou relativamente confiável e vendido até 1976.

    IBM Pavillion, Feira Mundial de 1964


    Conteúdo

    IBM 350 Edit

    o IBM 350 unidade de armazenamento de disco, a primeira unidade de disco, foi anunciada pela IBM como um componente do sistema de computador IBM 305 RAMAC em 14 de setembro de 1956. [8] [9] [10] [11] Simultaneamente, um produto muito semelhante, o IBM 355 , foi anunciado para o sistema de computador IBM 650 RAMAC. RAMAC significava "Método de Acesso Aleatório de Contabilidade e Controle". O primeiro protótipo de engenharia de armazenamento em disco 350 enviado para a Zellerbach Paper Company, San Francisco, em junho de 1956, [12] com embarque de produção começando em novembro de 1957 com o embarque de uma unidade para United Airlines em Denver, Colorado. [13]

    Seu design foi motivado pela necessidade de contabilidade em tempo real nos negócios. [14] O 350 armazena 5 milhões de caracteres de 6 bits (3,75 MB). [15] Ele tem cinquenta e dois discos de 24 polegadas (610 mm) de diâmetro, dos quais 100 superfícies de gravação são usadas, omitindo a superfície superior do disco superior e a superfície inferior do disco inferior. Cada superfície possui 100 trilhas. Os discos giram a 1200 rpm. A taxa de transferência de dados é de 8.800 caracteres por segundo. Um mecanismo de acesso move um par de cabeças para cima e para baixo para selecionar um par de discos (uma superfície inferior e uma superfície superior) e para dentro e para fora para selecionar uma trilha de gravação de um par de superfície. Vários modelos aprimorados foram adicionados na década de 1950. O sistema IBM RAMAC 305 com 350 unidades de armazenamento em disco alugado por US $ 3.200 por mês. O 350 foi oficialmente retirado em 1969.

    A Patente U.S. 3.503.060 do programa RAMAC é geralmente considerada a patente fundamental para unidades de disco. [16] Este primeiro drive de disco foi cancelado inicialmente pelo Conselho de Diretores da IBM por causa de sua ameaça ao negócio de cartões perfurados da IBM, mas o laboratório IBM San Jose continuou o desenvolvimento até que o projeto foi aprovado pelo presidente da IBM. [17]

    O gabinete do 350 tem 152 cm de comprimento, 172 cm de altura e 74 cm de largura.

    A unidade RAMAC pesa cerca de uma tonelada, tem que ser transportada com empilhadeiras e frequentemente é transportada em grandes aviões de carga. [18] De acordo com Currie Munce, vice-presidente de pesquisa da Hitachi Global Storage Technologies (que adquiriu o negócio de armazenamento da IBM), a capacidade de armazenamento da unidade poderia ter sido aumentada para mais de cinco milhões de caracteres, mas o departamento de marketing da IBM na época era contra uma empresa maior unidade de capacidade, pois não sabiam como vender um produto com mais capacidade de armazenamento. No entanto, versões de capacidade dupla do 350 foram anunciadas [8] em janeiro de 1959 e enviadas mais tarde no mesmo ano.

    Em 1984, o RAMAC 350 Disk File foi designado um marco histórico internacional pela American Society of Mechanical Engineers. [19] Em 2002, o Magnetic Disk Heritage Center começou a restauração de um IBM 350 RAMAC em colaboração com a Santa Clara University. [20] Em 2005, o projeto de restauração RAMAC foi transferido para o Computer History Museum em Mountain View, Califórnia, e agora é demonstrado ao público na exposição Revolution do museu. [21]

    IBM 353 Edit

    o IBM 353, usado no IBM 7030, era semelhante ao IBM 1301, mas com uma taxa de transferência mais rápida. Tem uma capacidade de 2.097.152 (2 21) palavras de 64 bits ou 134.217.728 (2 27) bits e transferiu 125.000 palavras por segundo. [22] Uma unidade protótipo enviada no final de 1960 foi a primeira unidade de disco a usar uma cabeça por superfície voando em uma camada de ar comprimido, como no design de cabeça mais antigo do armazenamento em disco IBM 350 (RAMAC). Os 353s de produção usavam cabeças voadoras essencialmente iguais às do 1301.

    IBM 355 Edit

    o IBM 355 foi anunciado em 14 de setembro de 1956 como um acréscimo ao popular IBM 650. [23] Ele usava o mecanismo do IBM 350 com até três braços de acesso [b] e armazenava 6 milhões de dígitos decimais e 600.000 sinais. [23] Ele transferiu uma trilha completa de e para a memória de núcleo magnético IBM 653, uma opção do IBM 650 que armazenava apenas sessenta palavras de 10 dígitos com sinal, o suficiente para uma única trilha de disco ou um registro em fita.

    IBM 1405 Edit

    o IBM 1405 Disk Storage Unit was announced in 1961 and was designed for use with the IBM 1400 series, medium scale business computers. [24] The 1405 Model 1 has a storage capacity of 10 million alphanumeric characters (60,000,000 bits) on 25 disks. Model 2 has a storage capacity of 20 million alphanumeric characters (120,000,000 bits) on 50 disks. In both models the disks are stacked vertically on a shaft rotating at 1200 rpm.

    Each side of each disk has 200 tracks divided into 5 sectors. Sectors 0–4 are on the top surface and 5–9 are on the bottom surface. Each sector holds either 178 or 200 characters. One to three forked-shaped access arms each contains two read/write heads, one for the top of the disk and the other for the bottom of the same disk. The access arms are mounted on a carriage alongside the disk array. During a seek operation an access arm moved, under electronic control, vertically to seek a disk 0–49 and then horizontally to seek a track 0–199. Ten sectors are available at each track. It takes about 10 ms to read or write a sector.

    The access time ranges from 100ms to a maximum access time for model 2 of 800ms and 700ms for model 1. The 1405 model 2 disk storage unit has 100,000 sectors containing either 200 characters in move mode or 178 characters in load mode, which adds a word mark bit to each character. The Model 1 contains 50,000 sectors. [25]

    IBM 7300 Edit

    o IBM 7300 Disk Storage Unit was designed for use with the IBM 7070 IBM announced a model 2 in 1959, but when IBM announced the 1301 on June 5, 1961, 7070 and 7074 customers found it to be more attractive than the 7300. The 7300 uses the same technology as the IBM 350, IBM 355 and IBM 1405

    IBM 1301 Edit

    o IBM 1301 Disk Storage Unit was announced on June 2, 1961 [26] [27] with two models. It was designed for use with the IBM 7000 series mainframe computers and the IBM 1410. The 1301 stores 28 million characters (168,000,000 bits) per module (25 million characters with the 1410). Each module has 25 large disks and 40 [c] user recording surfaces, with 250 tracks per surface. The 1301 Model 1 has one module, the Model 2 has two modules, stacked vertically. The disks spin at 1800 rpm. Data is transferred at 90,000 characters per second.

    A major advance over the IBM 350 and IBM 1405 is the use of a separate arm and head for each recording surface, with all the arms moving in and out together like a big comb. This eliminates the time needed for the arm to pull the head out of one disk and move up or down to a new disk. Seeking the desired track is also faster since, with the new design, the head will usually be somewhere in the middle of the disk, not starting on the outer edge. Maximum access time is reduced to 180 milliseconds.

    The 1301 is the first disk drive to use heads that are aerodynamically designed to fly over the surface of the disk on a thin layer of air. [3] This allows them to be much closer to the recording surface, which greatly improves performance.

    The 1301 connects to the computer via the IBM 7631 File Control. Different models of the 7631 allow the 1301 to be used with a 1410 or 7000 series computer, or shared between two such computers. [28]

    The IBM 1301 Model 1 leased for $2,100 per month or could be purchased for $115,500. Prices for the Model 2 were $3,500 per month or $185,000 to purchase. The IBM 7631 controller cost an additional $1,185 per month or $56,000 to purchase. All models were withdrawn in 1970. [26]

    IBM 1302 Edit

    o IBM 1302 Disk Storage Unit was introduced in September 1963. [29] Improved recording quadrupled its capacity over that of the 1301, to 117 million 6-bit characters per module. Average access time is 165 ms and data can be transferred at 180 K characters/second, more than double the speed of the 1301. There are two access mechanisms per module, one for the inner 250 cylinders and the other for the outer 250 cylinders. [30] As with the 1301, there is a Model 2 which doubles the capacity by stacking two modules. The IBM 1302 Model 1 leased for $5,600 per month or could be purchased for $252,000. Prices for the Model 2 were $7,900 per month or $355,500 to purchase. The IBM 7631 controller cost an additional $1,185 per month or $56,000 to purchase. The 1302 was withdrawn in February 1965.


    IBM Introduces System 360 - History

    Photo: Steve Bellovin. Columbia 360/91 console and 2250 Display Unit. Photo: Steve Bellovin. CU 360/91 Hazeltine 2000 ASP control terminal, 1972 (ASP = Attached Support Processor).

    From the IBM Photo Archive: "This wide-angle view of the multiple control consoles of the IBM System/360 Model 91 shows the nerve center of the fastest, most powerful computer in operation in January 1968. It was located at NASA's Space Flight Center in Greenbelt, Md."
    The IBM System/360 Model 91 was introduced in 1966 as the fastest, most powerful computer then in use. It was specifically designed to handle high-speed data processing for scientific applications such as space exploration, theoretical astronomy, subatomic physics and global weather forecasting. IBM estimated that each day in use, the Model 91 would solve more than 1,000 problems involving about 200 billion calculations.

    The system's immense computing power resulted from a combination of several key factors, including advanced circuits that switched in billionths of a second, high-density circuit packaging techniques and a high degree of "concurrency," or parallel operations.

    To users of the time, the Model 91 was functionally the same as other large-scale System/360s. It ran under Operating System/360 -- a powerful programming package of approximately 1.5 million instructions that enabled the system to operate with virtually no manual intervention. However, the internal organization of the Model 91 was the most advanced of any System/360.

    Within the central processing unit (CPU), there were five highly autonomous execution units which allowed the machine to overlap operations and process many instructions simultaneously. The five units were processor storage, storage bus control, instruction processor, fixed-point processor and floating-point processor. Not only could these units operate concurrently, they could also perform several functions at the same time.

    Because of this concurrency, the effective time to execute instructions and process information was reduced significantly.

    The Model 91 CPU cycle time (the time it takes to perform a basic processing instruction) was 60 nanoseconds. Its memory cycle time (the time it takes to fetch and store eight bytes of data in parallel) was 780 nanoseconds. A Model 91 installed at the U.S. National Aeronautics & Space Administration (NASA) operated with 2,097,152 bytes of main memory interleaved 16 ways. Model 91s could accommodate up to 6,291,496 bytes of main storage.

    With a maximum rate of 16.6-million additions a second, NASA's machine had up to 50 times the arithmetic capability of the IBM 7090.

    In addition to main memory, NASA's Model 91 could store over 300 million characters in two IBM 2301 drum and IBM 2314 direct access storage units. It also had 12 IBM 2402 magnetic tape units for data analysis applications, such as the processing of meteorological information relayed from satellites. Three IBM 1403 printers gave the system a 3,300-line a minute printing capability. Punched card input/output was provided through an IBM 2540 card read punch.

    The console from a Model 91 has been preserved in the IBM Collection of Historical Computers, and is exhibited today in the IBM Technology Gallery in the company's corporate headquarters in Armonk, N.Y.

    The console of Columbia University's 360/91 is in storage at the Computer History Museum, 1401 N. Shoreline Blvd, Mountain View, California.

    Here's an excellent photo of the 360/91 console and 2250 display, just like ours at Columbia, but this is not Columbia (I believe it is NASA because I found a thumbnail of the same picture HERE). See how the console dwarfs the puny humans.

    Here's a May 2003 shot of the last remnants of our 360/91 &mdash the console nameplate (visible in the Luis Ortega photo above), the console power switch, and assorted lamps, shown just before they were sent to the new Computer History Museum to be reuinited with the rest of our 360/91 console.

    Semifinally, here's a shot of Columbia's 360/91 control panel in "deep storage" in the Computer Museum's Moffet Field facility, before relocating to Mountain View in June 2003:

    And finally, look what I found on Mayday 2015 at Paul Allen's Living Computer Museum (formerly PDP Planet):

    Amazing. Look: lights! It was referenced from this page (don't count on the link lasting for any amount of time).


    IBM System 360 Changes the Industry Forever

    April 7, 1964

    IBM launches the System 360 mainframe architecture, which comprised six compatible models complete with 40 peripherals. The line, dubbed the “360″ because it addressed all types and sizes of customer, cost IBM over five billion dollars to develop, and it is widely considered one of the riskiest business gambles of all time.

    Up until this time, computer systems, even from the same manufacturer, were generally incompatible with each other. Software and peripherals from old systems would not work with new systems. This stifled acceptance and deployments of new systems as business customers were hesitant to lose their investments in their current systems. By developing a mutually compatible series of mainframes, customers were assured that their investments would not be lost if they purchased further System 360 models.

    IBM’s gamble paid off handsomely, as in just the first three months of its release, IBM will receive US$1.2 billion in orders. Within five years, over thirty-three thousand units will be sold, popularizing the concept of a computer “upgrade” around the world. The 360 family was the most successful IBM system of all time, generating in over US$100 billion in revenue through the mid-1980’s. It became the basis for all sequent IBM mainframe architectures, which will hold a 65% marketshare in the 1990’s.

    The 360 architecture also introduced a number of industry standards to the marketplace, such as the worldwide standard of the 8-bit byte. Its enormous popularity catapulted the business world into the technology age and transformed the computer industry. Not bad for a bunch of suits.


    IBM Introduces System 360 - History

    This pictorial timeline is an expansion of a presentation originally given in the media technology forum at the PCA/ACA annual conference. That presentation was mainly limited to a history of video technology, whereas here I'm including many other media types dating from the days of the Edison cylinder to the present time. A goal with this timeline is to provide a decent picture of the technology at hand and a brief description of it, with links to more extensive web sites when they are available. This stems from my habit when picking up a book, particularly those that have picture sections in the middle, to look at those pictures and read the captions prior to reading anything else in the book.

    Since this timeline is closely associated with the CED M a g i c web site, it provides the greatest emphasis on video technology and innovations that originated at RCA. The timeline will be a continuous work in progress as new technology emerges and I continue to fill holes in the past timeline.


    IBM’s Century of Innovation

    A merger of three 19th-century companies gives rise to the Computing-Tabulating-Recording Company in 1911. The company’s name is changed to International Business Machines Corporation in 1924, and under the leadership of Thomas J. Watson Sr. becomes a leader in innovation and technology. Early machines, like the dial recorder above, set the stage for further mechanization of data handling.

    IBM begins a corporate design program and hires Eliot Noyes, a distinguished architect and industrial designer, to guide the effort. Noyes, in turn, taps Paul Rand, Charles Eames and Eero Saarinen to help design everything from corporate buildings to the eight-bar corporate logo to the IBM Selectric typewriter with its golf-ball shaped head.

    IBM introduces the IBM System/360 compatible family of computers. The company calls it the most important product announcement in its history.

    A new era of computing begins, and IBM’s entry into the personal computer market in 1981 is an endorsement of the new technology. IBM makes the PC a mainstream product, used in businesses, schools and homes. Its choice of Microsoft and Intel as key suppliers propels upstarts into corporate giants.

    IBM shows computing’s potential with Deep Blue, a computer programmed to play chess like a grandmaster. In 1997, Deep Blue defeats the world chess champion Garry Kasparov, a historic win for machine intelligence.

    IBM makes Watson, the artificial-intelligence technology that famously beat humans in the quiz show “Jeopardy!” in 2011, into a stand-alone business. The company hopes Watson will be an engine of growth. It is investing heavily in data assets, from medical images to weather data, to help make Watson smarter and useful across many industries.


    Assista o vídeo: IBM 360 1964 2018 BELL VIDEOPHONEYouTube (Dezembro 2021).