domingo, 21 de dezembro de 2014

VMware diz que qualquer um - não apenas EMC - podem jogar com seus melhores pedaços


Desde VMware lançou o aparelho de armazenamento virtual de volta em 2011, os observadores se perguntam se os esforços de armazenamento da empresa machucar negócios da EMC seu pai.


Essa ponderação se tornou mais intensa quando VMware lançou VSAN no início deste ano, como o produto de armazenamento definido por software é um concorrente direto para alguns arrays da EMC, em alguns cenários.







O lance em investidores ativistas que pensam que a Federação EMC poderia fazer com um pouco menos concorrência interna e / ou sobreposição, ea atitude de VMware para armazenamento definido por software torna-se uma questão de conjectura justificável.


E no início de dezembro, a EMC empurrou seu servidor ScaleIO SAN no kernel VMware, criando uma outra opção de armazenamento-through-software.


VMware diz a notícia do plano ScaleIO vi que receber "... uma grande quantidade de perguntas de nossos clientes e parceiros sobre as diferenças entre SAN Virtual e EMC ScaleIO ... nos perguntando sobre onde SAN Virtual deve ser utilizado, onde ScaleIO deve ser usada, e se há qualquer diferença real entre os dois. "


A resposta da VMware, postado aqui é que "Não há planos para a porta do produto ScaleIO núcleo no kernel do ESX ou integrá-lo com o resto da pilha vSphere."


"Artigos de imprensa recentes", diz o post, causou "confusão".


Esses artigos, provavelmente, seria um presente de roupa francesa lemag TI e nosso próprio impulso link acima.


Secretária de virtualização 's El Reg adivinha EMC e VMware têm apanhou um pouco de calor sobre isso, porque o post negação é bastante longa. Ele explica que "VSAN é projetado especificamente em torno de uma forte integração com vSphere - com o objetivo de proporcionar níveis de desempenho de gestão de super-simples e muito elevados para vSphere VMs"


VMware VSAN

Este é um VSAN



O trabalho de ScaleIO é "fornecer armazenamento baseado em servidor altamente escalável para plataformas heterogêneas, incluindo múltiplos hypervisors e servidores físicos."


EMC's ScaleIO

Este é um ScaleIO não-SAN



A confusão VMware do infeliz com provavelmente surgiu porque há um fundo de verdade na integração de ScaleIO e ESX.


Aqui está como que a integração funciona, como explicado no post de VMware:


EMC escreveu um driver de kernel ESX que implementa um módulo cliente ScaleIO. Ele "fala" o protocolo ScaleIO e acessa o servidor (s) ScaleIO. Ela expõe armazenamento para máquinas virtuais rodando em vSphere de uma forma semelhante à volumes iSCSI. Este driver ScaleIO foi escrito usando APIs públicas do kernel que estão disponíveis para qualquer parceiro VMware que desenvolve drivers do kernel em ESX. O servidor ScaleIO não está sendo portado ou integrado com o vSphere eo kernel ESX.

O ponto aqui parece ser é que qualquer pessoa pode usar API pública do VMware para fazer o tipo de kernel-obra EMC feito com ScaleIO. Então EMC não está recebendo um acesso privilegiado a ESX ou qualquer outra tecnologia VMware. E porque os dois produtos são tão diferentes em design e finalidade, não há concorrência entre EMC e VMware. Mas os dois não competir no mercado global de armazenamento definido por software, o que é bom.


Não admira que os investidores estão confusos. ®



terça-feira, 16 de dezembro de 2014

IBM e Red Hat ligar para virtualização em sistemas de energia


Red Hat anunciou que seu produto Enterprise Virtualization agora funciona em sistemas de energia da IBM.


O movimento não é uma surpresa colossal: na semana passada, Red Hat revelou uma versão beta do Red Hat Linux 7.1 e incluiu uma versão em execução no recém-revelado da IBM plataforma Power8 . Red Hat Enterprise Virtualization for Power é um hypervisor KVM derivado do que é integrado ao kernel do Linux, um arranjo disse para permitir uma operação mais rápida de VMs do que arranjos concorrentes.







Novos sistemas Power8 da IBM são bestas com núcleos em abundância e aceleração GPU na lateral. Aplicações de Big Data e outros dados pesados ​​esmagando são o alvo, mas mesmo esses tipos de cargas de trabalho, muitas vezes podem se beneficiar da capacidade da virtualização para hardware abstrato. E, claro, ninguém quer a sua lata em marcha lenta nos dias de hoje: ciclos de CPU usado pela ONU são apenas pedindo olhares médios de tipos financeiros que leram revistas aéreas sobre servidores de nuvem baratos.


IBM sabe disso e sabe também que os sistemas de poder não são baratos e os seus clientes querem tirar o máximo proveito deles.


Não admira que jogou um fresco bilhão de dólares em Linux em setembro passado , a fim de certificar-se de que haveria software para tun na plataforma.


A virtualização é uma peça-chave da infra-estrutura computacional, assim Red Hat está segurando claramente a sua parte no trato. ®



segunda-feira, 15 de dezembro de 2014

Tintri acrescenta Hyper-V para o seu apoio servidor virtualizado


Flash híbrido / disk matriz arrivista Tintri adicionou Hyper-V para o seu apoio servidor virtualizado, para sentar-se ao lado de seus serviços VMware e Red Hat Enterprise Virtualization existentes.


Schtick de Tintri, além de um design de baixo para cima pela sua variedade híbrida hardware e software VMstore Tintri OS, é a sua apresentação de armazenamento como apenas mais um recurso de máquina virtual (VM) para uso e controle por administradores de servidores virtuais.







Presidente e CEO da Tintri, Ken Klein, disse: "Em vez de se atrapalhar com conceitos arcaicos, como LUNs, eles podem simplesmente gerenciar e proteger VMs individuais."


Com esta atualização VMStore nativamente suporta o protocolo SMB 3.0 e se integra com o Hyper-V e System Center Virtual Machine Manager (SCVMM).


Ele fornece "operações de gestão de dados em nível de VM, como instantâneos, clones e replicação", acrescentou Klein.


Tintri alega até 3500 VMs pode ser implantado em um único VMstore T880 com suporte Hyper-V.


Hyper-V

Hyper-V diagrama esquemático



O apoio Hyper-V no Windows Server 2012 R2 irá GA em 18 de dezembro com Tintri OS 3.1. Ele é gratuito para os clientes com um contrato de suporte Tintri válido. ®



Parallels adotar Docker como formato de app nativo em Cloud Servidor


O pequeno virtualizador que pode, Parallels, tem vindo a fazer contentorização para as idades: software Virtuozzo da companhia foi a execução de aplicativos em silos que compartilham um sistema operacional subjacente, pelo menos desde 2007, quando seu antecessor empresa SWsoft decidiu mudar o nome em si Parallels . SWsoft tem o seu início em 2001.


Parallels prefere concentrar-se no mercado de provedores de serviço , onde prospera porque tem uma biblioteca de gordura de pacotes de aplicativos para rodar em recipientes Virtuozzo. Os prestadores de serviços, como essa abordagem porque torna mais fácil para eles para girar um aplicativo para os clientes com um mínimo de barulho. Que Parallels também tem muito da adorável ferramentas de faturamento e gerenciamento de contas faz com que seja um fornecedor popular de prestadores de serviços.







Parallels tem feito muita aprova ruídos sobre Docker, sinalizando que iria assar um pouco de sua experiência em recipientes Linux e dando uma mão no desenvolvimento contínuo de libcontainer.


Todos que foi, sem dúvida, bem-vindo. Mas Docker, indiscutivelmente, superou em termos de pacotes de aplicativos: o Docker Hub contém 45.000 "aplicativos Dockerized".


Parallels anúncio de que a sua Nuvem servidor irá no próximo ano ganho a capacidade de executar aplicativos nativamente Docker, portanto, parece muito sensato: Nuvem de servidor talvez se torne mais atraente para os prestadores de serviços, que terão menos incentivo para migrar da plataforma.


Mas tem de ser irritante para Parallels para ver uma plataforma de contentorização rival ultrapassá-la tão rapidamente. A empresa do dito A Reg sente que poderia chicotear Hyper-V ou ESXi se quisesse, mas gosta de seu nicho. Talvez essa posição agora é possível ver como lamentável a falta de ambição.


A empresa não é ser covarde, no entanto, em sua explicação para a decisão de adotar Docker. Sua nova postura é que a execução Docker dentro de um hypervisor diminui o desempenho preocupante.


VMware e Microsoft tanto pensar de outra forma, com VMware especialmente otimistas sobre Docker dentro de seu ambiente.


Se Parallels pode fazer suas críticas ficar, pode ainda tornar-se o rato que rugiu. Ao invés de presas para Docker. ®



quinta-feira, 11 de dezembro de 2014

VMware saindo 2014 com um estrondo e um gemido de segurança


Os bits produtivas de 2014 podem ser desaparecendo rápido, mas VMware não está retardando: a empresa do empurrou alguns exemplos mais notáveis ​​para fora da porta nos últimos dias.


O mais urgente é uma correção para um bug na versão on-instalações da suíte de gerenciamento de dispositivo móvel AirWatch. Como Virtzilla 'confessa-se "Esses problemas podem permitir que um usuário que gerencia uma implantação AirWatch em um ambiente multi-tenant para ver a informação organizacional e estatísticas de outro inquilino."







A correção é de, em um bom caminho, no link acima.


Também nesta semana, Virtzilla emitiu seu novo híbrido vRealize suíte de gerenciamento de nuvem. Isto é, claro, a recadastrados vCloud Suite e vCloud Automation Center, agora gussied com um aspiracional e toda a ação nome. Todas as ferramentas estão agora na versão 6.0, para salvar VMware vRealize Automation 6.2 (aka vCloud Automation Center) e vRealize Log introspecção 2.5 que é uma mera atualização 0.5 para vCenter Log Insight.


DevOps feliz


Há também uma nova ferramenta chamada vRealize Código Stream que Virtzilla diz é tudo sobre como fazer mais fácil fazer lançamentos de software freqüentes dentro de um ambiente VMware.


VMware é muito interessada em DevOps no momento. Tendo Docker e Kubernetes integração prometeu voltar na VMworld EUA e na Europa, é emitido em ambos e adicionou suporte para instalação de Mesosphere sob vSphere.


Como explicou ao The Reg por do VMware Austrália Aaron Steppat, o efeito combinado desses esforços visa dar TI as ferramentas necessárias para convencer os tipos DevOps que eles podem felizmente ir sobre seu negócio dentro de um ambiente VMware cuidada lojas. Como sempre, o pensamento de VMware sobre setores altamente regulamentados, que não estão interessados ​​em qualquer coisa que acontece sem o departamento de TI de supervisão, ao mesmo tempo, tentando se certificar de que essas organizações não se privam de novos brinquedos legais.


Apoio mesosfera dá essa ambição de um impulso porque VMware já suporta recipientes (Docker) e orquestração recipiente (Kubernetes). Mesosfera é projetado para ser um ambiente no qual um implanta Docker e Kubernetes, de modo a apoiar isso significa vSphere agora pode abraçar três camadas de um app contentorizada.


Outro lançamento digno de nota a partir dos últimos sete dias Volumes vApp, anteriormente conhecido como CloudVolumes. Este parece ser mais do que um rebadging, como VMware diz que a ferramenta inclui agora "suporte suporte para RDSH publicado desktops e aplicativos, Citrix XenDesktop e XenApp, dispositivos físicos não persistentes, melhorou opções de ambiente de usuário personalizada e muito melhorada e ampliada para o Microsoft Office. "


Volumes vApp parece significativo: VMware do delineado "Projeto Fargo" para colocá-lo no centro de uma nova maneira de entregar a virtualização de desktops e aplicativos de desktop em contentor.


O 's Reg mesa virtualização espera Projeto Fargo para fazer ondas em 2015, quando também vai ser tratado com vSphere 6.0 e mais serviços em vCloud Air. Também tenho dito por pessoas em posição de saber que VMware de profunda em discussões com outro grande jogador nuvem para uma aliança que vai fazer vCloud Air uma proposta mais poderoso


Ele terá que ser porque 2015 vai ver o surgimento de uma nova versão do Windows Server e Microsoft é claramente muito interessados ​​em transformá-lo em um par excellence wrangler nuvem híbrida.


E em cima dessas ocorrências prováveis, há a ameaça de investidor ativista Elliott Gestão sucesso em sua tentativa de dissociar VMware da Federação EMC.


Pity aqueles que dizem que infra-estrutura é chato e sentar-se para desfrutar de um dos melhores tecnologia e negócios mostra na cidade! Nós vamos fazer o nosso melhor para dar-lhe grandes bancos. ®



quarta-feira, 10 de dezembro de 2014

Criando mais harmonia em torno da computação de usuário final


Top 5 razões para implantar VMware com Tegile


As tensões com frequência surgem entre as unidades de negócio e as equipes de TI como os usuários se tornaram mais informada e opinativo, e buscou maiores níveis de liberdade e flexibilidade em torno da tecnologia que utilizam no trabalho. Neste contexto, a chave para a criação e manutenção da harmonia é priorizar interesses comerciais tangíveis acima ambos os desejos do usuário e é o conservadorismo natural. O tipo certo de compromissos pode ser alcançado para conduzir o máximo benefício.


A voz do usuário está ficando mais alto e mais forte


Houve uma época em que a computação do usuário final em grande parte girava em torno de PCs Wintel implantado e gerenciado pelo departamento de TI. O tipo de equipamento fornecido a um empregado normalmente seria determinado por uma combinação de negócios e necessidades operacionais. Sempre que possível, a normalização seria aplicado para fazer garantir, administração e suporte do ambiente mais fácil e eficiente.


Se você tiver sorte o suficiente como uma pessoa de TI para ser ainda vive neste mundo, então apreciá-lo enquanto dura, porque a natureza da computação de usuário final está mudando rapidamente.


Os resultados de um estudo recente leitor Reg realizada pela Freeform Dynamics captar o impacto relacionado com o trabalho da ascensão fenomenal de smartphone e tablet adoção no espaço do consumidor.


Ao longo dos últimos anos, os usuários se tornaram muito mais informada e opinativo, e muitas organizações estão vendo o crescimento da influência das preferências do usuário e desejos em tecnologia usuário final as decisões relacionadas (Figura 1).


Figure 1 Figura 1

Os comentários a seguir obtidos na pesquisa fornecem um sabor do feedback que recebemos sobre as mudanças que estão ocorrendo:


"Estamos vendo mais trabalho móvel e uma gama mais variada de dispositivos."

"Mais e mais o pessoal quer usar algo que eles estão familiarizados."

"Os usuários estão exigindo marcas específicas."

E resistir a voz do usuário é difícil ou mesmo impossível, quando os gerentes seniores são os que fazem as demandas:


"Os diretores todas pediu iPads, então eles tem-los."

"O custo é nenhuma barreira entre os executivos seniores e os dispositivos que eles querem."

Mas não parar em pessoas simplesmente fazendo lobby para conseguir o que querem.


As equipes de TI não podem mais controlar toda aquisição de tecnologia


Se é em resposta a uma necessidade não atendida, ou uma preferência pessoal ou desejo, alguns funcionários estão ignorando política e processo e aquisição de tecnologia, independentemente do departamento de TI (Figura 2).


Figure 2 Figura 2

Para resumir o que este gráfico está nos dizendo, a maioria das organizações estão vendo a adoção unilateral de tecnologia entre as unidades de negócios e / ou utilizadores a um nível que não pode mais ser ignorado. A amplitude da atividade é digno de nota também. Não é apenas sobre smartphones e tablets, mas também PCs, Macs, software e serviços.


As tensões estão aumentando ea desarmonia está crescendo


Olhando para informações estatísticas, como que apresentou acima não transmitir o impacto sobre relacionamentos, ou a maneira em que a harmonia organizacional é muitas vezes a ser minada. As frustrações são claros em ambos os negócios e de TI lados da casa:


"Se um departamento de TI de tamanho decente não pode apoiar iOS, Android e Windows, talvez os caras que fazem o trabalho deve aplicar-se para novos postos de trabalho."

"Como funcionário, eu vejo a falta de flexibilidade como um indicador negativo da cultura organizacional; é sintomático de uma organização com um ambiente de TI opressivo. "

"A alta gerência tem negaria BYOD, ignorando entrada e avisos de TI, mas os usuários são em sua maioria sem pistas sobre suas reais necessidades. Alguns dispositivos só não vai funcionar em nosso ambiente, então as pessoas ficam com raiva quando não podemos corrigi-lo. "

"Os usuários finais e gestão de negócios perderam qualquer compreensão da segurança e responsabilidade na pressa de ser visto como na moda."

Então, o que pode ser feito para ajudar a resolver o tipo de diferenças que estão surgindo nesta área altamente emotivo?


O truque consiste em romper com os diferentes conjuntos de interesses


Um dos princípios fundamentais que devem ser aceitos, particularmente entre os acionistas da empresa, é que os desejos de usuários e necessidades de negócios nem sempre estão bem alinhados. Na verdade, que muitas vezes pode estar em conflito direto com os outros como esta observação muito perspicaz de um estudo participante resume muito bem:


"As necessidades individuais e desejos devem vir segundo a soluções estar apto para o efeito, rentável e seguro. Olhar fresco e gostando do dispositivo, enquanto agradável, não é exatamente o que os acionistas está interessado. "

Aceitando também que as equipes de TI podem às vezes ser um pouco arrogante de uma perspectiva de controle, potencialmente inibir o progresso, a necessidade de mais compromisso todo é claramente necessário. Ao falar através de opções, no entanto, as discussões tornam-se muito mais fácil se você configurá-los como pano de fundo as necessidades do negócio do núcleo duro. Uma boa ferramenta para usar aqui é algo que chamamos o triângulo de interesses (Figura 3).


Figure 3 Figura 3

Vale a pena ter o triângulo de interesses que sentam-se no meio da tabela ou rabiscou no quadro branco quando as equipes de negócios e de TI se reúnem para conversar sobre prioridades e considerar se as solicitações dos usuários podem ser acomodados. Quando surge um conflito, as necessidades de negócios do núcleo duro deve claramente trunfo qualquer um dos outros dois conjuntos de interesses, mas você pode também identificar áreas de investimento necessário. Pode ser, por exemplo, que uma solicitação de usuário aparentemente auto-serviço é, na verdade, mascarando uma oportunidade importante para aumentar a produtividade dos funcionários. Você também vai se deparar com situações em que a equipe de TI está resistindo a uma proposta, porque a infra-estrutura e as ferramentas não estão no lugar para implementá-lo de forma segura, segura e eficaz.


Se você estiver interessado em adquirir mais conhecimentos sobre esta área importante e fascinante, nós incentivamos você a ler o relatório de pesquisa completo, intitulado " A política e as particularidades dos End Computing Usuário ".



Será titã da tecnologia ENGOLIR arrivista onde guru da Apple, Steve Wozniak trabalha?


Internet Security Threat Report 2014


Comente Passei apenas uma hora com o centro de dados virtualização arrivista de dados principal (criada pelos fundadores do Fusion-io) durante uma turnê de imprensa de TI, mas saí tanto intrigado e perplexo ao mesmo tempo.


Enquanto ele tem a melhor visão e idéias que eu já vi em anos, ao mesmo tempo que a visão parece incrivelmente difícil de alcançar. Tudo é tão imaturo que só a fé, carradas de dinheiro, e a estratégia perfeita (todos juntos) vai levar a empresa ao sucesso.


Pensando Dados Primária


Juku_1

Conceito dados primários



Com já 60 milhões de dólares em financiamento, um A + equipe de personalidades de armazenamento, um monte de marketing (com todo o respeito, eu não posso pensar diferente quando caras como a Apple cérebro Steve Wozniak estão envolvidos ), três locais de P & D, fora de modo stealth só depois de um ano de sua criação, com um monte de CPO e um produto (provavelmente totalmente imaturo) muito em breve.







Há apenas duas possibilidades aqui: ou esses caras sabem exatamente o que estão fazendo, ou eles são totalmente fora de suas mentes.


Pensando Nicira


Primeiro de tudo, apenas falando sobre marketing, dados primária é muito inflexível que "este não é um produto definido por software". Do meu ponto de vista, é, mas é tão avançado (e melhor do que qualquer coisa que estamos acostumados a) que falar sobre SDS só irá diminuir o valor da proposição.


A melhor maneira que eu conheço para descrever dados principal é compará-la com a empresa de redes definidas por software Nicira . Nicira foi adquirida da VMware para US $ 1,2 bilhão há um tempo atrás, é um pioneiro da SDN e sua tecnologia é hoje a base da VMware NSX.


Vou pedir alguns dos conceitos básicos por trás NSX para explicar o que faz de dados principal, mesmo que na maioria dos casos, é uma simplificação excessiva.


Tal como acontece com Nicira / NSX temos três componentes principais: o protocolo, o switch virtual, eo controlador. Traduzindo isso em termos de dados primários temos: pNFS (comparáveis ​​com OpenFlow), o hypervisor (a vSwitch Aberto), eo controlador NSX (o diretor de Dados).


Também as funcionalidades são muito semelhantes:


Juku_2

Toda a virtualização do armazenamento acontece no hipervisor de dados, o qual é instalado em cada servidor único. Esta é uma peça muito complexa de software fato; é um driver de kernel e também faz toda a conversão de protocolo (arquivo / arquivo, arquivo / bloco, arquivo / object). Então, pNFS "encapsula" o tráfego e é usado para o transporte de dados entre hypervisors (há muito mais complexidade aqui, mas você deve primeiro entender como funciona pNFS ir mais fundo, e este não é o objetivo deste post).


O Data Director é um controlador de metadados baseado em políticas, encarregado de todo o posicionamento de dados, em movimento, e assim por diante - como com Nicira, toda a magia, o potencial e que o dinheiro está aqui.


Como Nicira e OpenFlow, se o fornecedor de armazenamento suporta nativamente pNFS (e sério), tenho certeza de que poderia haver alguma mágica aqui ... mas no momento é só especulação.


Há outras peças importantes na arquitetura de dados principal, mas, no momento, eu acho que isso é o suficiente para dar a idéia básica.



sexta-feira, 5 de dezembro de 2014

VMware vCenter adverte de cross-site-scripting bug


Arrays de armazenamento Flash Inteligente


É sexta-feira! Ao final da tarde você vai trabalhar a meio-ritmo e contemplando divertido fim de semana.


A menos que você executar o controle vCenter aberração da VMware, porque Virtzilla acaba de revelar um cross-site scripting falha feia no produto.







"VMware vCenter Server Appliance (VCSA) contém uma vulnerabilidade que pode permitir a Cross Site Scripting. A exploração desta vulnerabilidade no vCenter Server requer enganando o usuário a clicar em um link malicioso ou abrir uma página web maliciosa enquanto está logado na vCenter ", diz consultivo da VMware, divulgada na noite de quinta-feira US tempo.


Outra questão recém-identificada, um dos seis revelado aqui , significa "vCenter Server não valida adequadamente o certificado apresentado ao estabelecer uma conexão com um servidor CIM residente em um host ESXi." Isso faz-Man-in the-middle ataques contra o serviço possível CIM.


Outros patches de Virtzilla olhar menos preocupante por se tratarem de pequenos problemas e código de terceiros em que os produtos da VMware dependem.


A boa notícia é que, enquanto há manchas que vêm para alguns dos problemas, os dois primeiros podem ser classificados com as atualizações para vCenter Server. Apenas vCenter 5.1 necessita da atualização para o bug XSS, mas todas as versões 5,0-5,5 precisam de atenção para a confusão certificado.


Implementações de atualização Apressado não são nenhum divertimento, mas se VMware diz que seus sistemas de produção precisa deles - na sexta-feira - quem é você para discordar? ®



quinta-feira, 4 de dezembro de 2014

Docker: Aqui, assumir o volante - Agora você pode executar seus próprios recipientes


Escolhendo uma nuvem de hospedagem parceiro com confiança


DockerCon Docker UE é toda a raiva entre startups do quadril e early adopters, mas Docker a empresa gostaria de ter a sua tecnologia em empresas, também - é por isso que ele está trabalhando na adaptação de seu serviço de Docker Hub hospedado em um produto visando especificamente os grandes clientes empresariais.


A próxima oferta, sem surpresa chamado Docker Hub Empresa (DHE), será uma versão on-instalações de Docker Hub projetado para atrair as empresas preocupadas com segurança que não estão dispostos a confiar em um serviço externo para armazenar seus recipientes de aplicação.







O software, que a empresa anunciou durante sua conferência DockerCon UE esta semana em Amesterdão, tem como objetivo permitir que os clientes da empresa para compartilhar facilmente, manter e colaborar em recipientes Docker atrás de seus próprios firewalls ou em nuvens privadas, onde anteriormente eles teriam que colocar reunir um conjunto complexo de software de fonte aberta para fazê-lo.


A idéia é que os clientes serão capazes de compor aplicações multi-contêiner usando uma combinação de serviços a partir de seus próprios repositórios privados, Docker oficiais repositórios, e contentores do público Docker Hub, que é atualmente o lar de mais de 60.000 imagens.


A versão inicial do DHE irá incluir um instalador fácil e um utilitário de configuração GUI, mas iterações futuras irá expandir sua capacidade de incluir mais recursos DevOps orientada.


"Nossa visão para DHE é que ele irá evoluir a partir do lugar para compartilhar e colaborar em aplicações distribuídas a um ponto de controle estratégico para desenvolvedores e administradores de sistemas para gerenciar todos os aspectos do ciclo de vida de desenvolvimento de aplicações - desde a construção até a produção - em qualquer infra-estrutura que escolher ", disse o CEO Docker Ben Golub em um post anunciando a nova oferta.


O verdadeiro truque, porém, será convencer empresas a usar a tecnologia. Docker não é a única empresa que oferece software para hospedagem no local repositórios de contêineres.


Para o efeito, Docker alistou Serviços Amazon Web (AWS), IBM e Microsoft para obter ajuda, cada um dos quais se comprometeu a ajudar a passo DHE aos seus clientes.


IBM teria sido a primeira empresa a assinar para vender soluções baseadas em Docker incluindo DHE, e que planeja oferecer o software tanto como na solução no local e uma oferta de nuvem. AWS e Microsoft, por sua vez, vai oferecer imagens de DHE pré-construídos para permitir aos clientes obter rapidamente o software instalado e funcionando em seus respectivos nuvens.


O problema, porém, é que, apesar de Docker anunciou DHE na sua conferência de Amsterdam, os clientes podem não ser capaz de obter as mãos sobre ele até a próxima DockerCon US ou mais tarde.


Docker tem alguns clientes beta - nomes mencionados no DockerCon UE incluiu Agco, Disney, ESPN, GE, Mailgun, MemSQL, Oculus, e Weebly -, mas o software não serão oferecidas ao público em geral até que uma "disponibilidade cedo" versão começando em fevereiro de 2015. Haverá uma lista de espera , e Docker não se comprometeu com uma data que vai chegar a disponibilidade geral.


Os preços para DHE também serão anunciados em fevereiro. Cruze os dedos, se você é o tipo de apostas. ®



Docker transforma condutor em jogo-orquestração visando empresa


Controle remoto seguro para desktops convencionais e virtuais


DockerCon Linux UE recipiente wrangler Docker arredondado para fora o primeiro dia de sua conferência DockerCon UE na quinta-feira, revelando três novos serviços que representam as próximas etapas da transição de Docker do conjunto de ferramentas para a plataforma de pleno direito.


"Nós estamos incubando uma série de projetos em separado do tempo de execução do núcleo", co-fundador e CTO Docker Solomon Kykes explicou durante sua palestra à noite quinta-feira. "O tempo de execução do núcleo está focada na estabilidade. Estes novos projectos, estas novas ferramentas, estão focados em atacar um novo problema de forma independente, ortogonal."







O trio de serviços são projetados para tornar mais fácil para os administradores de provisionar e orquestrar aplicações distribuídas compostas por múltiplos serviços executados em recipientes independentes Estivador, que Hykes disse foi o recurso mais solicitado pelos clientes Docker.


O primeiro dos três, apelidado de Docker Máquina , automatiza o processo de provisionamento do Docker motor em qualquer máquina - se é um laptop local, um centro de dados VM, ou uma série de nuvem - eliminando grande parte da configuração manual e scripting que anteriormente era necessário para obter Docker em execução na produção.


Docker cofounder and CTO Solomon Hykes

Solomon Hykes teve orquestração recipiente em sua mente na primeira conferência DockerCon UE



Inicialmente, Docker máquina será lançado com motoristas que facilitam a criação de exércitos Docker sobre Serviços Amazon Web, DigitalOcean, IBM, Microsoft Azure SoftLayer, Microsoft Hyper-V, OpenStack, Rackspace, VirtualBox, VMware e, com mais alvos para vir.


Além disso prédio na essas capacidades é o próximo serviço, Docker Swarm , um serviço de armazenamento em cluster nativo para contêineres. Docker Swarm pode criar um pool de recursos a partir de múltiplos hosts Docker do motor e, em seguida, agendar automaticamente cargas de trabalho de acordo com suas necessidades de recursos. Também pode reequilibrar automaticamente cargas de trabalho, no caso de falhar hospedeiros.


Hykes apressou-se a acrescentar, no entanto, que Swarm não seria a opção de agrupamento exclusivo para uso com Docker - que ele descreveu como Docker de "baterias incluídas, mas as baterias removível" filosofia.


"O objetivo não é para criar a solução de cluster que faz fora da caixa tudo para todos", disse Hykes. "Em vez disso, o que nós estamos tentando fornecer uma implementação padrão padrão que é bom o suficiente para ser realmente doce para usar fora da caixa, e depois torná-lo realmente fácil de trocar que backend padrão e trazer em seu backend favorito."


Como um exemplo de que, Hykes acrescentou, Docker é uma parceria com Mesosphere fazer mesos um cidadão de primeira classe dentro do ecossistema Docker.



Docker parte 4: A Microsoft não pode ignorá-la. Aux armes, citoyens!


Controle remoto para desktops virtualizados


É claro que Docker está aqui para ficar, mas temos de moderar o nosso entusiasmo com pragmatismo e uma análise cuidadosa da história. Há muitas peças no tabuleiro a considerar, e cada um deles tem uma mente própria.


Docker é, simultaneamente, um peixe grande (graças ao hype em torno dele) e um peixinho relativa em comparação com os titã da tecnologia que se propõe a perturbar. Compreender sua evolução provável requer a compreensão das pessoas envolvidas e as circunstâncias sob as quais eles trabalhistas.







No VMworld 2014, o hype em torno Docker era tangível. Desde VMware realizou uma VMworld e, basicamente, se esqueceu de mostrar-se, dezenas de milhares de pessoas ficaram procurando alguma coisa para falar sobre cervejas. Todo mundo delirou sobre dados de gravidade durante cerca de cinco minutos, e depois falou sem parar sobre Docker por dias.


Me ame!


Compreender o hype Docker significa entender algo sobre Silicon Valley. As guerras de infra-estrutura de armazenamento são funcionalmente sobre : SANs servidor ganhou. Crescimento em matrizes irá parar, voltar, e armazenamento centralizado tradicional começará sua longa slide em estado tecnologia zombie ao lado de mainframes.


Junto com isso vai uma enorme pilha de voos-para-o-ponto-de-livre dinheiro a ser tido fazendo startups com base no que equivale a "uma característica de um produto de armazenamento de bom". Os fornecedores estão completando seus Fusões e Aquisições (M & A) para este ciclo. Vai ser anos antes de terem terminado a extração do lucro de suas novas aquisições, e, assim, anos antes de ir em outra onda de compras inflado. As grandes empresas tendem a querer obter o valor dos milhões e bilhões que gastam.


Software as a Service está sendo executado em algumas paredes também. Os desenvolvedores provaram chupar a codificação para a escala. A computação em nuvem pública não é tão barato quanto os dróides de marketing disse que seria. Pior de tudo, aqueles estrangeiros traquinas se preocupam com questões como "soberania de dados", para que o preceito da expansão ilimitada que garante financiamento contínuo investidor está sendo contestada.


Silicon Valley precisa desesperadamente de algo em que acreditar.


Esta necessidade de algo para acreditar vai um longo caminho para explicar por que Docker é um assunto muito maior no interior do vale do que fora dela. Os empresários precisam de saber o que a próxima grande coisa é para que eles possam encadear os chavões de marketing direita e atrair capital de risco. Venture capitalista precisam de esperança em alguma coisa - qualquer coisa, na verdade - que promete impedir a bolha de entrar em colapso, e, assim, dá-lhes um sentido para rolar os dados in.


Docker tem preenchido o vazio no vale.


Docker está recebendo um monte de hype dentro do Vale do Silício porque Docker é realmente útil para os tipos de (web based) projeta que a Vale faz sim muita. Ele é novo e brilhante, mas ainda confortável e familiar. Dirige-se a utilização de um determinado servidor o que significa que essas cada vez mais entediado - ou desempregados - nerds de armazenamento têm agora um novo quebra-cabeça para resolver.


Até muito recentemente, esta foi a narrativa. Docker estava ficando louco campanha publicitária no Vale do Silício porque Docker estava ficando louco campanha publicitária dentro Silicon Valley. É de hoje Paris Hilton de tecnologia: famoso por ser famoso, mas apenas dentro de certos círculos. Fora da câmara de eco, todo mundo apenas uma espécie de saber o que o alarido é sobre. E, em seguida, Microsoft interveio



A idade do híbrido hypervisor de desktop em nuvem está sobre nós


Guia do Iniciante para certificados SSL


VMware enviou a versão 11 do seu produto de virtualização de desktops Workstation para baixo a rampa de lançamento.


O novo lançado tem uma série de melhorias que se esperaria de um novo lançamento: não há suporte para sistemas operacionais mais recentes, como o Windows 8.1, Windows Server 2012 R2, Suse Enterprise Linux 12 e Ubuntu 14.10. Agora você pode lidar com telas de alta resolução de até 3200x1800, que vendo como Workstation é um instrumento destinado a desenvolvedores será útil, pois será possível para imitar as telas colossais de laptops modernos.







Há também suporte para a arquitetura Haswell da Intel, a inicialização VMs com o apoio EFI é permitido e agora é possível doar 2 GB de memória de vídeo para uma VM. E agora é possível executar 20 redes virtuais dentro do ambiente de trabalho hypervisor, e para executar discos virtuais de até 8 TB e VMs com 16 vCPUs.


As máquinas virtuais autodestrutivas lançado em outubro também já alcançou Workstation.


Agradáveis ​​ajustes e reforços, todos.


Mas o item mais interessante é a integração com o próprio em nuvem da VMware, vCloud Air, como estação de trabalho pode agora "escala ... máquinas virtuais na nuvem externa."


É aparentemente possível "... se conectar a vCloud Air e upload, executar e visualizar máquinas virtuais direito da interface Workstation 11." E para fazer mais ou menos a mesma coisa para e de uma nuvem privada.


Tudo isto significa que a área de trabalho hypervisor tem pulou a bordo do cloudwagon híbrido. Apenas como over-the-wire VMs executar ainda não é conhecido: a rede de arrasto de vários vForums sugere beta testers respeitavam os acordos de não divulgação, ou encontrado o recurso indigno de menção.


VMware Player 7 também aterrou, com o seu aprimoramento principal é para permitir a operação de VMs ao mesmo Workstation escala de 11 pode criar. ®



quarta-feira, 3 de dezembro de 2014

Cisco e IBM equipe no pacote infra-estrutura integrada 'VersaStack'


Guia do Iniciante para certificados SSL


Cisco e IBM vai anunciar hoje mais tarde "VersaStack", um projeto de referência infra-estrutura integrada que combina servidores da Cisco UCS e switches, além de Storwize 7000 matrizes de armazenamento da IBM.


A nova plataforma parece muito com outras pilhas integrados da Cisco ajudaram a construir, como FlexPods da NetApp. Assim é o pensamento por trás VersaStack: em um briefing pré-lançamento contemplou pelos representantes Reg da Cisco e IBM explicou que os projetos pré-preparados estão prontos para batalha em execução ESXi 5.5, são modulares e podem, portanto, escala, use UCS Director da Cisco como o anormal de controle e são projetados para permitir que os usuários finais ligar e começar a máquinas virtuais em execução na ordem curta e foram concebidos com forte integração para que os usuários podem passar mais tempo com coisas que agregam valor, em vez de manter as luzes acesas.







Para começar, as duas empresas têm um projeto para um VersaStack com duas IBM Storwize 7000 matrizes a bordo. Em pouco tempo a IBM DB2 e WebSphere validar a correr para fora da caixa (múltipla) (es), e espera que com o tempo ele irá adicionar integrações para outro software. Também tenho dito que ESXi é apenas o "primeiro" hypervisor apoiado, embora outros ambientes operacionais não foram mencionados na conferência web.


Apenas como este equipamento é diferente da outra infra-estrutura integrada não foi explicada, além de dizer que o Storwize 7000 é diferenciada de matrizes utilizadas em plataformas semelhantes infra-estruturas integradas, principalmente por meio de compressão em tempo real e hierarquização.


Cisco and IBM's VersaStack

Ingredientes de um VersaStack. Clique aqui para Embiggen



Pilotos VersaStack aparentemente já executado com 15 grandes parceiros da IBM e Cisco mútuos e de nossos clientes tem sido exagerado. As duas empresas acho que existem oportunidades para aumentar as opções para a base do outro: IBM pensa seus clientes armazenamento estará interessada e Cisco pensa alguns proprietários UCS vai gostar da idéia de uma maior integração. Canais de ambas as empresas deverão estar interessado: que começa a construir e vender os equipamentos e até mesmo agir como um suporte de camada, se quiserem.


Uma entidade probabilidade de não estar interessada nesta nova aliança é NetApp, cujo FlexPods se parecem muito com o VersaStack.


EMC tem menos para se preocupar: os seus VSPEX integrado plataformas não são muito diferentes, mas VersaStacks subsidiária nicho 'Vblocks da VCE é inconteste por esta nova aliança.


Uma peculiaridade desde o briefing era uma promessa que VersaStack ajudará as organizações a mover-se de despesas de capital para despesas operacionais. Assim como não foi explicada, mas Cisco não oferecem uma página em branco intitulado "financiamento VersaStack" que podem de alguma forma para colocar carne sobre os ossos de sua promessa.


Há também muitos detalhes reais do projeto este guia VersaStack [PDF] .


Será que VersaStack importa? Cisco é mostrado, ao longo dos anos, que é interessada em encontrar muitas maneiras de vender UCS. Com IBM fora do jogo x86, a Big Blue encontrar uma nova maneira de vender servidores x86 é, portanto, também não digna. Mas este é um território novo e bem-vindo para as vendas de armazenamento da IBM, que não estão colocando o mundo em chamas. ®



NetApp vai para um passeio no EVO da VMware: Trilhos


Internet Security Threat Report 2014


NetApp vai oferecer do VMWare EVO: RAIL hyperconverged plataformas, mas com suas matrizes FAS em rede.


NetApp diz que a sua oferta terá três componentes principais:



  • VMware EVO: RAIL

  • NetApp Data ONTAP Clusetred

  • Matrizes NetAppFAS


Ele foi projetado para remoto empresa e filiais (ROBO), também SMBs, com equipe de TI limitados e aplicativos em ambientes de servidores virtuais VMware.


A idéia de um sistema hiper-convergiram incluindo uma matriz de rede é um pouco de um trecho de pessoas escolarizadas na idéia de Nutanix / Simplicidade single-box simplicidade. Maxta e outras startups de armazenamento de software começou a podridão com arquiteturas de referência para excitar-convergência. É este EVO: RAIL saído dos trilhos ou apenas uma estratégia de marketing para diluir a idéia original hiper-convergente pura e enrole produto legado em papel novo na moda? No momento da escrita, NetApp não pode nos dizer o que o componente de computação de sua caixa EVO vai ser, o que não ajuda a avaliar apenas o que está acontecendo aqui.







Tanto Faz; não há nenhum inundações resistindo de uma estratégia de marketing; é game over nesse departamento. O que dizer sobre a NetApp sua nova oferta? Aqui é George Kurian, vice-presidente executivo para ops produtos:



"Ao combinar o storage da NetApp com VMware EVO: RAIL, agora oferecemos uma solução integrada que oferece simples, dimensionamento de baixo custo, o desempenho da empresa e protecção exigido para aplicações críticas de negócios, um único ponto de ponto de apoio, eo melhor de tudo, a flexibilidade completa de integração com a nuvem usando o NetApp Data Fabric ".



E aqui está Raghu Raghuram, vice-presidente executivo e gerente geral da Divisão Central de dados definidos por software da VMware:



"A NetApp Integrado EVO: Solução RAIL reunirá ... armazenamento corporativo NetApp com um pré-integrada e pré-testados, 100 por cento VMware EVO:. Pilha de software RAIL"



Pense EVO: RAIL atende FlexPod é a forma como a nossa mente está trabalhando; FlexRail? NetApp diz que é fornecido como um sistema de pré-integrada, por VARs supomos, podem ser implantados em minutos e unificou a gestão, todas as características de aparelhos de caixa único.


NetApp diz o NetApp Integrado EVO: RAIL (NIER - nossa sigla) oferecendo "integra-se com ambos os dados da empresa e do centro de nuvens públicas", o que significa que, pensamos, através ONTAP que pode gerenciar dados na nuvem da Amazon.


NIER estará disponível e transporte em 1H CY2015 através de um sistema de pré-integrada, incluindo hardware, software e suporte. Não há mais informações no site da NetApp. ®



Foguete Docker-rival do CoreOS: Nós perfurar novo concorrente recipiente


Armazenamento definido pelo Software for Dummies


Análise CoreOS CEO Alex Polvi certamente chamou a atenção da comunidade Docker na segunda-feira, quando ele anunciou Foguete, a alternativa de sua empresa para o formato de arquivo recipiente Docker e tempo de execução. Mas o que é Foguete eo que ele oferece que Docker não?


Em termos simples, a resposta por enquanto é um sonoro "não muito." De fato, como software destacável vai, é seguro dizer que o foguete não existe mesmo. O código postado para GitHub na segunda-feira não é mesmo de qualidade alfa e é melhor descrito como um protótipo.







"Assassino Docker" provavelmente não é a forma mais construtiva para pensar sobre Rocket, qualquer um - apesar incendiário de Polvi segunda-feira post no blog ". fundamentalmente falho", no qual ele descreve a segurança de Docker como "quebrado" e seu modelo de processo como


Durante uma bem-atendidos comunidade CoreOS meet-up em San Francisco na segunda-feira à noite, Polvi recuou um pouco de sua retórica mais cedo, dizendo que ele ea equipe CoreOS apenas discordou direção de Docker.


"Eu não acho que Docker geral é fundamentalmente falho, eu só acho que vai por um caminho diferente do que foi originalmente assinado para", disse Polvi.


Especificamente, esse caminho inclui a adição de novas funcionalidades para o software do motor Docker que irá levá-lo de ser um simples conjunto de ferramentas para uma plataforma de pleno direito - uma abordagem que Polvi disse que se sente é fundamentalmente falho, razão pela qual CoreOS quer fazer alguma coisa diferente.


Back to basics contentores


O que a equipe CoreOS gosta é a idéia de um container como um bloco de construção básico de desenvolvimento de aplicações, onde cada recipiente fornece um "Microservice", que pode ser combinado com outros microservices para formar aplicações distribuídas.


Neste modelo de desenvolvimento, Polvi argumenta, você provavelmente vai querer o software que você usa para executar seus recipientes para fazer isso e nada mais. Quaisquer serviços de plataforma adicionais do software fornece será redundante se você já está construindo em outra plataforma - como CoreOS , por exemplo, ou Amazon Web Services com o seu recém-anunciado EC2 Container Service .


Adicionando recursos para o software Docker também torna menos seguro. Como a sua pegada cresce e torna-se mais complexa, a probabilidade de que o código contém vulnerabilidades exploráveis ​​aumenta.


Enxugamento do processo de criação e execução de containers, então, é o primeiro gol do foguete. Tal como está agora, o software consiste em dois componentes, cada um dos quais é uma ferramenta de linha de comando simples, autônomo.


O primeiro é actool , que lida com contentores de construção e validação de recipiente e descoberta. A segunda é rkt - assim chamado, de acordo com CoreOS desenvolvedor defensor Kelsey Hightower, porque "todos os melhores comandos Unix são três letras" - que cuida de buscar e correr imagens de contêineres.


Significativamente, e ao contrário da abordagem de Docker, essas ferramentas não são apenas uma interface do usuário para falar com algum outro servidor. No modelo de foguete, não há daemon externo envolvido. Quando você invocar rkt para executar um recipiente, ele executa esse recipiente diretamente, dentro de sua própria árvore de processos e cgroup.


E embora seja ainda muito cedo para foguete, ele provavelmente não vai evoluir muito mais além que ideia simples.


"Nós realmente estamos apenas focados naquele pedaço de implantação contêiner de aplicativos, principalmente para infra-estrutura web grande escala", disse durante Polvi meet-up de segunda-feira. "É preciso haver melhores ferramentas para a construção de recipientes mínimos."



Repensar a entrega de desktops


Escolhendo uma nuvem de hospedagem parceiro com confiança


Muitos profissionais de TI estão cansados ​​da incessante do Windows espiral de atualização e o custo ea perturbação que ela traz. Repensar a entrega de desktops, no entanto, tanto pode aliviar a dor e colocar o negócio em uma base mais firme para o futuro.


Oh não, não de novo


Se há um tipo de projeto que está garantido para obter os profissionais de TI irritaram é uma grande migração de desktops. É um trabalho terrivelmente complexa, arriscada e tediosa, que muitas vezes oferece pouca ou nenhuma nova capacidade para o negócio. Portanto, ninguém agradece a todas as noites e fins de semana passou a testar software e trabalhando com os problemas de compatibilidade. Tudo o que você recebe é gemendo e lamúrias dos usuários sobre as coisas não funcionam do jeito que eles fizeram antes.


OK, então temos que pintou um quadro sombrio deliberadamente aqui para fazer o ponto, mas a verdade é que a maioria das empresas foram trancados em um ambiente de trabalho permanente de atualização em espiral ao longo de décadas, e como as seguintes observações de um estudo recente leitor Reg realizada pela Freeform Dynamics ilustrar, muitos estão começando a questionar a lógica:


"Gastos em larga escala e interrupção simplesmente para mudar a versão do Windows em uso tem pouco benefício do negócio."

"A pergunta é por isso que precisamos de mudar, quando a empresa já está fazendo bem com o que tem."

Até a Microsoft parece ter reconhecido o "Oh não, não de novo" sentimento criado pela perspectiva de que na próxima grande atualização. Ele declarou a intenção de rollout nova funcionalidade em uma base mais permanente no futuro. No entanto, aqueles com experiência de perturbador "Service Packs" e fracassos "Patch Tuesday" pode interpretar isso como apenas espalhar a dor. E não se prenda a respiração à espera de todos os seus desktops de Windows 7 para ser magicamente transformada para Windows 8 ou 9 apesar de um processo de atualização incremental.


Adiando a dor


Enquanto isso, grandes projetos de migração de desktop, muitas vezes acabam sendo continuamente adiada por uma variedade de razões - algumas a ver com a prevenção de custos, riscos e complicações, outros mais diretamente ligada à Microsoft específico de preocupações (Figura 1).



O problema é que, enquanto as migrações do Windows raramente entregar nada de novo para os usuários de negócios, por si só, se você deixar qualquer parte essencial de sua infra-estrutura de TI deriva muito longe da data em que tende a tornar-se difícil e caro para gerenciar e começa a agir como uma restrição sobre os progressos em áreas dependentes. O exemplo mais simples é software e hardware descontinuando o suporte para sistemas operacionais e equipamentos mais antigos.


Então, qual é a resposta?


Tempo de relegar a máquina


Há alguma lógica simples que podemos dar para este problema. Se você não pode deixar qualquer parte essencial da infra-estrutura deriva muito longe da data, e um elemento particular está provando difícil manter atual, em seguida, reduzi-lo a condição de não-essencial.


Em termos práticos, a chave é fazer com que desktops virtual. Para alguns tipos de usuário, isso poderia traduzir a centralização total com o sistema, aplicações e dados operacionais todos residentes no lado do servidor da rede. Esta abordagem é adequada para os trabalhadores baseados em tarefas que tendem a se sentar em uma mesa todos os dias executando o mesmo subconjunto de aplicativos.


Mas a virtualização de desktop não é a abordagem de tudo ou nada que costumava ser. Soluções modernas sempre centralizar o gerenciamento e entrega de software, mas o sistema operacional e / ou aplicativos ainda podem executar localmente sempre que necessário para atender as necessidades dos usuários móveis. Opções de execução pode até ser variado com base no usuário, o dispositivo em que estão trabalhando, a rede que está a ligar mais, e a aplicação específica que estão em execução, todos controlados por meio de políticas de gestão central.


Um conceito importante em todo este está protegendo software a partir do ambiente local. Em um nível, isso poderia ser através do funcionamento de uma máquina virtual totalmente separado em um hypervisor do lado do cliente. A um nível mais granular, aplicações individuais podem ser executados em um recipiente de estilo sandbox, envolvido nas políticas e definições necessárias. De qualquer maneira, a natureza do sistema de hardware e operacional local torna-se menos importante.


Indo mais longe


Mas a virtualização em relação aos desktops e notebooks é apenas uma parte da imagem. Durante a pesquisa acima citada mais de 90% dos participantes disseram que estavam vendo a demanda por smartphones e tablets, com mais de 50% notando uma tendência de alternativas de PC com Windows, como o Apple Mac. Além disso, cerca de 85% relataram o uso de múltiplos dispositivos por usuários individuais.


É claro que uma infra-estrutura consistente e abordagem para lidar com a crescente diversidade dispositivo seria o ideal, mas a maioria é um longo caminho desde que, no momento (Figura 2).


Figura 2

A boa notícia é que alguns fornecedores de TI estão começando a moldar suites de software para ajudá-lo a desenvolver uma abordagem mais juntou-se. O principal objetivo é puxar os fios juntos em todas as disciplinas anteriormente separadas, como a administração da área de trabalho, desktop / virtualização de aplicativos, gerenciamento de dispositivos móveis e gerenciamento de aplicativos móveis. Ao longo do caminho, a distribuição de software está se transformando em lojas de aplicativos de auto-atendimento e gerenciamento de dados está se estendendo para fora no chamado 'sync e partes' soluções.


Funcionalidade específica para um lado, no entanto, a capacidade mais importante é a capacidade de implementar políticas activas e mecanismos de execução de forma consistente em todos os tipos de dispositivos, com total visibilidade de toda a atividade de computação do usuário final.


Boa teoria, mas ...


Durante a pesquisa, vimos ampla buy-in para as aspirações que temos discutido, mas os desafios envolvidos em transformar boas ideias e teorias em ação também veio através fortemente (Figura 3).


Figura 3

Com isto em mente, a construção de uma visão clara do que é importante para o negócio é fundamental, pois está realizando uma avaliação honesta da capacidade atual. Você pode, então, melhor formular um business case objetivo de investimento do financiamento necessário, tempo e recursos para obter a organização em uma base mais firme para o futuro.


Para mais ideias sobre como proceder para isso, incluindo a forma de trabalhar com alguns dos problemas das pessoas que você é obrigado a enfrentar ao longo do caminho, nós incentivamos você a fazer o download do relatório de pesquisa completo relativo ao estudo mencionado acima. Este é intitulado " A Política e as particularidades dos End Computing Usuário ".



terça-feira, 2 de dezembro de 2014

Chef e HP cozinhar parceria para a infra-estrutura como código - até mesmo no Windows


Controle remoto seguro para desktops convencionais e virtuais


Descubra HP HP Technology Services anunciou uma parceria com o Chef de incluir automação de infra-estrutura, como parte de sua oferta de Datacenter Care, no evento HP Discover hoje em Barcelona.


Chef é um software de código aberto (sob a licença Apache 2.0) para a configuração orientada por roteiro de servidores. A empresa baseada em Seattle com o mesmo nome vende uma versão empresarial e oferece serviços de consultoria.



"Este é o primeiro acordo importante revendedor que fizemos," marketing Chef VP Jay Wampold disse ao Reg. "A HP Technology Services é usado por mais de 2000 empresas globais. De nossa perspectiva, Chef torna a plataforma que é colocado na frente dessas organizações para DevOps ".


DevOps (Desenvolvimento e Operações) é sobre a integração do processo de desenvolvimento de software com a sua implantação. Outro chavão, Entrega Contínua, descreve a automação de testes de software e implantação, de modo que um desenvolvedor pode modificar o código e ter a mudança rapidamente mobilizados para a produção. Essas abordagens são populares por causa da pressão sobre as empresas para responder rapidamente às mudanças de requisitos de software.







O produto do Chef faz (junto com seu concorrente Puppet ) é permitir a configuração de um servidor (ou máquina virtual) a ser especificada em um script Ruby, incluindo o que os serviços estão instalados e o conteúdo de arquivos de configuração. Um agente de Chef em cada servidor verifica se ele está de acordo com o mais recente roteiro e se atualiza, se não é. Desde que o código no script determina a configuração do servidor, isso é chamado de "infra-estrutura como código."


De acordo com VP EMEA (e Enterprise Architect chefe) Justin Arbuckle, algo como Chef é essencial para fazer o certo de Distribuição Contínua.


"Imagine uma grande empresa. O que eles vão estar lidando com está entregando código continuamente dentro de um amplo ecossistema de talvez diferentes hypervisors, recipientes diferentes, camadas de API, sistemas de gerenciamento de configuração, plataformas de gerenciamento de serviços, uma variedade de ferramentas de monitoramento, todas essas coisas tem que ser tratada. Entrega contínua, sem infra-estrutura automatizada dinâmica como código normalmente cria uma lacuna, como a organização tem que esperar para a especificação para a afinação da infra-estrutura. A menos que você faça infra-estrutura ágil, os benefícios que você começa com a entrega contínua de software são reduzidos. "


Arbuckle diz que a abordagem está ganhando força em bancos e outras indústrias altamente regulamentadas, pois auxilia iteração software rápido, mantendo a conformidade. "As pessoas estão se voltando para software como Chef de traduzir algumas dessas questões de conformidade nas políticas explícitas bem definidas, cuja implementação pode ser automatizado de forma consistente. Chef fornece uma única linguagem comum para a especificação, na descrição e na execução da política de toda a empresa. "


Para utilizar Chef, uma infra-estrutura de nuvem é essencial, mas embora Chef funciona bem com fornecedores como Amazon Web Services ou Microsoft Azure, ele não precisa ser nuvem pública.


"Cloud é um método, não um local", diz Arbuckle. Quando usamos o termo cloud, o que estamos falando é o acesso programático a recursos de computação elástica. Você pode querer jogar em alguns recursos de rede, armazenamento, coisas desse tipo. Abstraindo longe dos recursos físicos é fundamental. Mas isso não tem de ser uma nuvem pública. "


Sistemas operacionais Unix-like são mais propícios a configuração automatizada do que o Windows, uma vez que a configuração é em texto simples, em vez de em uma mistura típica do Windows de arquivos de texto e entradas de registro. Microsoft vem tentando resolver esta via a sua plataforma de automação de scripting PowerShell, incluindo um recurso chamado Desired Configuration Estado (DSC), que permite definir como um recurso é configurado no código e, em seguida, aplicá-lo a um servidor. DSC ainda não está completa, mas destina-se a ser utilizada por sistemas como Chef; ele não está na competição.



Correndo Chef no Windows



"Temos muitos clientes que estão usando o Windows com o Chef. Neste espaço, Chef é o único jogo na cidade. Nossa história do Windows é mais forte ", afirma Arbuckle. "Jeffrey Snover da Microsoft, o inventor do PowerShell e pai de Configuração Estado Desejado diz que a abordagem Chef para gerir a forma como pensamos sobre a integração com o Windows é o caminho certo para ir."


E sobre Docker, a tecnologia na moda recipiente que permite agrupar aplicações em pacotes padrão sem se preocupar com a configuração do servidor, isso reduzirá a necessidade de Chef?


"Docker passa a ser a coisa hoje, amanhã haverá outros mecanismos de divulgação de níveis de abstração. Abstrai de encaixe uma certa quantidade do detalhe orquestração bem como o detalhe da configuração. Mas qualquer grande empresa tem aplicativos legados para lidar com, infra-estrutura legada. Eles sempre serão heterogênea com vários contêineres e pilhas de tecnologia hypervisor. Nós permitem que as organizações gerem mudança e transição em um mundo heterogêneo ", diz Arbuckle.®



Parte 3: Docker vs hypervisor em tecnologia desavença SMACKDOWN


Guia do Iniciante para certificados SSL


Comentário Se você está disposto a começar do zero, desistir de alta disponibilidade, a capacidade de executar vários sistemas operacionais em um único servidor e todas as outras compensações, em seguida, Docker realmente não pode ser derrotado. Você está indo para empinar mais cargas de trabalho em uma determinada peça de hardware com Docker do que com um hypervisor, e ponto final.


Do ponto de vista de um provedor de nuvem - ou uma empresa grande o suficiente para funcionar como um - que é perfeitamente normal. Muitas das cargas de trabalho que correm não precisa ter um monte de guloseimas à base de hypervisor apreciador de qualquer maneira. Eles usam o agrupamento em aplicação ou aplicações que foram recodificados para a computação em nuvem pública.







Você não está vMotioning torno AWS, e dado que tomou VMware até cerca de meados de 2015, para obter uma versão de produção de tolerância a falhas lock-passo com mais de um vCPU para fora da porta, não se espera que em um não -VMware provedor de nuvem pública qualquer momento em breve. (Você também pode apostar VMware vai cobrar um centavo bonita para ele.)


É na tecnologia


Hypervisors são maravilhas da infra-estrutura avançada com ferramentas, técnicas e capacidades que recipientes como Docker pode nunca ser capaz de igualar. Como, exatamente, você mover uma carga de trabalho em contentor entre servidores com dramaticamente diferentes versões do kernel ou hardware diferente, sem a adição de uma camada hypervisor tipo de abstrações?


Como recipientes será ampliado ao longo do tempo como a geração existente de servidores de viver lado a lado com o próximo e cargas de trabalho se a transição? Há um monte de perguntas sem resposta, e será anos antes de nós tem certeza de como recipientes vai caber no quebra-cabeça global de tecnologia.


O outro lado é que Docker está em uma série de maneiras mais responsivos às necessidades dos clientes do que a maioria dos hypervisors lá fora. Não são apenas os desenvolvedores do núcleo ainda apaixonados por "seu bebê", mas a comunidade que surgiu ao redor faz fronteira com evangelicamente religiosa. Não há fim de energia para todas as coisas Docker, e aqueles com a energia estão entre as mentes mais brilhantes que já produzidos.


Docker é fácil de usar, embora não por causa de ferramentas de gestão, APIs, documentação ou marketing liso. Docker é fácil de usar, pois os tipos de cargas de trabalho que você deseja executar no Docker vir como uma implantação de-push-button simples a partir de um "app-store" como interface.


Alguns desses "pacotes de aplicativos" são suportados oficialmente. A maioria é dirigida a comunidade. Mas eles são fáceis de encontrar, mais fácil de usar e fácil de reembalar em um modelo e ir de sua testbed única para uma nuvem de milhares de casos.


Fornecedores de hypervisor pode ser razoavelmente visto como sendo obcecado com o fornecimento de infra-estrutura mais flexível e resiliente possível. Para contraste, Docker é a evolução de uma obsessão com não querer gerir ou manter infra-estrutura, mas em vez de continuar com o negócio de realmente usar essa infra-estrutura para fazer algo útil.


Containers acabará por ser usado em conjunto com hypervisors tradicionais e serviços em nuvem mesmo públicas, formando um novo (ish) oferta de serviços básicos para as massas e que nos permite fazer algo que temos feito há algum tempo que pouco melhor.


E contra ou


Não se engane, no entanto, como a nuvem pública, antes deles, os recipientes são um, e não um "ou" tecnologia "e". Hypervisors fosse um "ou" tecnologia. Sempre fui hypervisors, eles maciçamente deslocados computadores bare-metal e rendido então ameaçado, se não extinto. Os contentores não são - Eu não repetir enfaticamente - que perturbadora.


Docker pode ser pego por uma titan tecnologia. Dado o interesse da VMware na empresa, ele pode muito bem encontrar uma casa dentro VMware. Da mesma forma, os recipientes pode vir a ser (ou, na minha experiência, com bastante frequência são) implantado dentro hypervisors.


Isso permite que os administradores usam o hypervisor embaixo para alcançar os tipos de infra-estrutura subjacente magia em que hypervisors se destacaram, ao mesmo tempo colocando algumas ou todas as cargas de trabalho que exigem um ambiente semelhante em uma única VM como um meio de aumentar a eficiência. Um compromisso, se você quiser.


Containers pode acabar implantado em alguns servidores de metal para certas classes de cargas de trabalho, enquanto outros vivem em hypervisors para as próximas décadas. Neste momento, não há nenhuma maneira de saber exatamente como ele vai jogar fora. *


Pessoalmente, eu espero que isso será diferente para cada organização. Containers nos oferecem a possibilidade de fazer escolhas sobre o risco versus eficiência. Hypervisors nos ajudar a lidar com o risco: o risco de cursinhos tantas cargas de trabalho em um único sistema, o risco de uma falha de sistema, ou de precisar de culpar totalmente as capacidades tolerantes.


Hypervisors nos ajudar a lidar com as realidades de ambientes heterogêneos e o fato de que nem tudo é uma carga de trabalho baseado na web, ou pronto para ser recodificados para "escala".


30-year old software ainda corre em muitas das organizações do mundo de hoje, e não há absolutamente nenhuma razão para esperar que o mesmo não será verdade daqui a 30 anos. Hypervisors nos dará a capacidade de lidar com isso de uma maneira que os recipientes nunca será. ®


* Se a história serve de guia VMware, provavelmente, tem uma operação skunkworks trabalhando na construção de um concorrente Docker diretamente no hypervisor agora. VMware não fazer "parceria" nestas áreas para particularmente muito antes de qualquer compra de uma empresa relevante ou rola a sua própria versão. Essas brigas podem obter particularmente desagradável .


Da Microsoft rápida aceitação de Docker tenha deturpado a bola de cristal um pouco, e fez a pressão sobre VMware ainda mais intensa.



segunda-feira, 1 de dezembro de 2014

CONTAINER WARS! Explosões CoreOS na Docker com ferramenta de Rocket rival


Escolhendo uma nuvem de hospedagem parceiro com confiança


CoreOS, a distro Linux leve em torno de recipientes Linux e Docker, decidiu romper com Docker e desenvolver a sua própria, contêiner de aplicativos tecnologia concorrente.


Na segunda-feira, CoreOS revelou uma versão protótipo do foguete, uma ferramenta de linha de comando para trabalhar com Container App, formato de imagem recipiente homebrewed da empresa, tempo de execução e mecanismo de descoberta.







"Continuamos a acreditar na premissa original de recipientes que Docker introduzidas, por isso estamos a fazer algo sobre isso", escreveu CoreOS CEO Alex Polvi em um post de blog . "Enquanto estamos nisso, estamos limpando e fixa algumas coisas que gostaríamos de ver em um recipiente pronto produção."


De acordo com Polvi, desenvolvimento de Docker se afastou de seu conceito original de recipientes simples, padrão para a idéia de Docker-as-plataforma - e não é isso que CoreOS assinou contrato para quando comecei a trabalhar com a tecnologia.


"Infelizmente, um componente reutilizável simples não é como as coisas estão acontecendo", Polvi escreveu. "Docker agora está construindo ferramentas para o lançamento de servidores em nuvem, sistemas de clustering, e uma ampla gama de funções: a construção de imagens, correndo imagens, upload, download, e, eventualmente, até mesmo sobreposição de redes, todos compilados em um corredor binário monolítico principalmente como root em seu servidor. "


Fontes familiarizadas com os planos da Docker disseram ao The Reg que a empresa planeja fazer uma demonstração, pelo menos, alguns desses recursos em sua conferência DockerCon Europa em Amsterdã, esta semana.


De POV Polvi, no entanto, essas mudanças realmente enfraquecer Docker, ao invés de fortalecê-lo. Descrevendo desenho central-daemon de Docker como "fundamentalmente falho" e seu modelo de segurança como "quebrado", Polvi disse que CoreOS "não pode, em boa-fé" continuar a apoiar de Docker para seus clientes corporativos.


Ao invés de se bifurcar código de Docker, CoreOS tomou a abordagem de criar um substituto terra-up para o formato de imagem Docker e as ferramentas usadas para lançar e manipular contêineres.


Significativamente, todos os instrumentos de CoreOS para trabalhar com Recipiente App serão integrados, mas são independentes um do outro. Foguete pode ser executado como uma ferramenta autônoma em qualquer sabor de Linux, e não apenas CoreOS. E Polvi disse que espera que outros fornecedores para fazer as suas próprias ferramentas que trabalham com a especificação Container App; eventualmente, os clientes que não gostam de Rocket não terá de usá-lo em tudo.


CoreOS está até pensando em contribuir apoio para Container App para o projeto open source Docker em si, uma vez que a especificação amadurece.


Em um post no blog na segunda-feira, Docker CEO Ben Golub expressou desapontamento com o movimento de CoreOS, acrescentando que "apenas um pequeno número de fornecedores" em desacordo com direção geral de Docker, e, em seguida, muitas vezes por razões de interesse próprio. Ainda assim, ele disse, porque Docker é um projeto open source, os clientes são livres para usar e integrar com o software como eles gostam, incluindo a promoção de uma norma alternativa como Container App.


"Enquanto nós não concordar com alguns dos argumentos e retórica questionável e timing do anúncio de Rocket, esperamos que todos nós podemos continuar a ser guiado pelo que é melhor para os usuários e desenvolvedores", disse Golub.


Por enquanto, porém, é cedo ainda para Rocket e Container App, e CoreOS instou a comunidade open source para ajudar a desenvolver a tecnologia. Um rascunho da especificação Container App está disponível aqui , e a versão protótipo do foguete está disponível no GitHub, aqui . ®



Docker, Parte 2: Whoa! Padrão da indústria espontânea! Como é que eles fazem isso?


Internet Security Threat Report 2014


Blog Sysadmin Docker está lentamente tomando conta do mundo. Desde as suas origens humildes, que nós explorados na sexta-feira, como um projeto interno no dotCloud, através de recente da Microsoft anúncio que apoiará Docker nativamente no Windows, Docker parece destinada a tornar-se um dos principais componentes da infra-estrutura de TI moderna.


Hoje em dia, é alimentado por encaixe Libcontainer, em vez de o LXC mais generalizada. O interruptor tem algumas implicações muito concretas para o futuro da Docker, para a sua aprovação potencial e por sua interação com a comunidade.







Assuntos Libcontainer, pela mesma razão que o Android importa: controle. Consideremos por um momento que, embora existam eleventy distribuições de Linux squillion lá fora, quase ninguém diz "Android Linux." Eles vão dizer "Red Hat Linux", "Ubuntu Linux" ou "SuSE Linux", mas eles não vão dizer "Android Linux."


Derivados do Android - como clone "Fire" da Amazon - são referidos não como novas distribuições de "Linux", mas como "variantes de Android". Compare isso com Mint: um derivado do Ubuntu, que é um derivado do Debian, mas todos são comumente chamado simplesmente de "Linux".


De acordo com as ministrações cuidadosas de Google, o Android tornou-se a sua própria "coisa". Distribuições Linux tendem a ter várias coisas em comum. Gerentes da embalagem, várias ferramentas comuns e embalados, procedimentos de inicialização de inicialização similares, layouts de arquivos, etc ... tudo sem prejuízo, naturalmente, à fragmentação. Android levou o kernel do Linux, algumas das idéias básicas, e apenas correu em uma direção completamente diferente.


Com libcontainer, Docker estão fazendo exatamente a mesma coisa. Docker não vai fazer política com as distros sobre como e quando implementam LXC. Docker não é a realização de reuniões de grupo abraço para garantir que todos está tudo bem com o impacto emocional e conceitos filosóficos por trás de cada decisão.


LIbcontainer é Docker própria; a empresa irá implementá-lo como eles gostam e se você não gosta, você pode ir de salto em um lago. Executar qualquer sistema operacional você quer por baixo, mas é Docker que irá fornecer-lhe a sua contenção.


A jogada ousada


Este é exatamente o tipo de movimento que normalmente não vai cair bem no mundo open-source. Para cada "você vai fazer do nosso jeito e você vai gostar", que resulta em um Android, existem dezenas de falhas de liderança que resultam em catástrofes como Unity do Ubuntu ou câmera lenta MySQL trainwreck da Oracle.


Google tinha bilhões e bilhões de dólares e uma década de boa vontade para queimar que lhes permitiu intimidar o mundo para fazer Android smartphone dominante (e muito possivelmente embutido) OS. O que Docker tem que está ganhando tal campanha publicitária esmagadora, e permitindo-lhe fugir com uma forma rara de ditadura na arena de código aberto?


A resposta não é uma coisa, mas sim uma combinação destes. Em primeiro lugar, devemos começar com o fato de que dotCloud é o patrocinador comercial de Docker, e isso faz toda a diferença. DotCloud tinha uma fonte estável de receitas não relacionadas com janela de encaixe próprio e tinha um conjunto firme de parcerias comerciais e contatos no lugar muito antes de Docker nunca fui nascido.


Essas relações e parcerias levou tempo e habilidade para forjar. A experiência e conexões ganhou ao fazê-lo ajudado a trazer um forte apoio de toda a comunidade de código aberto. Empresas como a RedHat, Canonical e Google, que tradicionalmente acreditam Linux deve evoluir de forma diferente - e que entrem em suas distribuições em radicalmente diferentes direções - estavam todos convencidos do valor de apoiar libcontainer como um único padrão unificado, com Docker no centro.


Isto foi conseguido com habilidade e paciência, e obedecendo a lei de Wheaton. Docker está dando tão bom quanto ele ganha, e tão valioso é a coalizão de contribuintes que mesmo Parallels - que, se você se lembra, fazem principal concorrente do Estivador, Virtuozzo - estão contribuindo de código e de trabalho como parte da equipe.


Em essência, dotCloud conseguiu forjar um padrão da indústria cross-corporativa de empresas concorrentes, sem um pesadelo burocrático IEEE-like longo de um processo. Mais importante, eles saíram na frente da coisa e fez isso em primeiro lugar; imaginar onde computing público / privado cloud / híbrido seria hoje, se pudéssemos ter convencido os vários atores envolvidos para concordar com uma norma única máquina virtual!


Quando você considera como investiu profundamente essas empresas estavam em iterações anteriores da tecnologia conteinerização - Google de Let Me conter esse para você (lmctfy) ser um precursor imediato para Docker - o feito é ainda mais impressionante.


Normas Claro, todos nós temos visto falhar. Por que o Vale do Silício parece tão convencido de que Docker não vai?


A maioria das grandes empresas de tecnologia gostaria que você acredite que a opinião dos usuários finais é irrelevante. Infelizmente para eles, você pode ficar lá gritando ordens no rebanho até que você esteja azul na cara, mas eles são tão propensos a atropelar-lo para o chão, como movimento na direção que você quer. Diretores de Docker realmente aprendeu essa lição e eles fizeram a coisa mais fácil de usar do que qualquer alternativa disponível.


O grande segredo está o conceito de "imagens". Pense nesses modelos como para virtualização baseada em hipervisor. Clique no botão, imagem spawn, segundos depois, você está pronto para ir. É assim tão fácil.


Docker também é altamente programável e tem um monte de conexões profundas para a comunidade DevOps. Se você usar Puppet, as chances são que você ama Docker, e as brigadas de aficionados PowerShell são bastante bombeado sobre isso também. Copy-on-write capacidades de Docker oferecer equipes DevOps a capacidade de criar e destruir Application Clusters (pense vApps) com a mesma facilidade que eles iriam chamar uma função em seu código.


Docker ainda vem com a capacidade de restringir o uso de recursos de cada instância para que "vizinho barulhento" consumo de recursos não é um problema. Equipes Webscale DevOps ter encontrado uma nova espécie de nirvana.


Valor no mundo real


Docker obtém vitórias fáceis a partir de grandes empresas que buscam refazer suas aplicações. É uma ameaça aqui não para VMware ou Hyper-V, mas a AWS e Azure. As empresas que já estavam dispostos a recodificar seus aplicativos a partir do zero para a nuvem pública vai encontrar Docker uma alternativa bastante atraente.


Contentores sobre hardware commodity oferece um novo ponto de preço que a nuvem pública não pode cumprir, e não tem nenhum interesse em tentar. Provedores de nuvem pública já está trancado em uma potencialmente fatal corrida para o fundo , e eles não estão indo para ir contra Docker utilizando as tecnologias existentes.


Para o nicho de cargas de trabalho que os recipientes se destacam na, a única maneira de vencê-los é se juntar a eles. Espere os provedores de nuvem para fazer exatamente isso - e em grande forma - ao longo dos próximos 12 meses. Quer adotar Docker ou tentar reverter a sua própria ainda está no ar. ®