La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Hyper-V Cloud - L'évolution du Datacenter en Centre de Services

Présentations similaires


Présentation au sujet: "Hyper-V Cloud - L'évolution du Datacenter en Centre de Services"— Transcription de la présentation:

1

2 Hyper-V Cloud - L'évolution du Datacenter en Centre de Services
Créer votre nuage privé « Infrastructure as a Service » Pour bénéficier pleinement du Cloud Computing, les entreprises doivent développer une infrastructure hautement performante et robuste. Le nuage public ou privé repose sur les mêmes briques: puissance de calcul et logiciels à la demande, virtualisation et automatisation, réseaux haut débit et centres informatiques sécurisés. Découvrez dans cette session la vision et les solutions proposées par Microsoft pour faire évoluer votre infrastructure vers une infrastructure en tant que service. Speakers

3 Objectif de la session Comprendre ce qu’est un Centre de Services
Comment les technologies Microsoft permettent une transformation de votre datacenter en Centre de Services

4 Agenda Le Datacenter et les « Nuages »
Du Centre de Données au Centre de Services Le Centre de Services avec les solutions Microsoft Synthèse

5 Le Datacenter et les « Nuages »

6 Les besoins évoluent, les Datacenters aussi
PRB-BDM Powerpoint template 3/31/2017 6:21 AM Les besoins évoluent, les Datacenters aussi Interconnexion des centres Interdépendance plus marquée des systèmes et applications Toutes les entreprises ont des environnements hétérogènes (Windows, Unix, Linux) 2/3 des entreprises voient les budgets consacrés aux datacenters augmenter 74% des entreprises font résider un nombre croissant de serveurs dans le datacenter 42% des centres dépasseront leur capacité énergétique en 12 à 24 mois Raccourcir les délais de mise en œuvre Croissance rapide et agilité accrue Virtualisation 3/4 des entreprises ont déployé des serveurs virtuels 81% des entreprises comptent consolider de nouveaux serveurs d'ici 2 ans Conformité et processus 50 % des entreprises américaines et européennes mettent en œuvre ITIL ou l'ont déjà fait Les directions générales avouent consacrer 10 % de leur budget à la conformité Responsabilité sociale et Green-IT Éviter de gaspiller énergie, matériel et espace dans les centres de données En 2009, les centres de données ont consommé 5 % de l'énergie électrique aux E.U. Cette diapositive décrit les changements auxquels sont confrontés les entreprises et l'impact de ces changements sur le centre de données. Les entreprises cherchent de nouveaux moyens pour optimiser leurs ressources et rationaliser leurs activités métier. Elles souhaitent également surmonter la complexité inhérente aux nouvelles technologies. Les clients se montrent toujours plus exigeants. Les technologies (virtualisation notamment) ne cessent d'évoluer. De nouvelles réglementations externes et de nouvelles politiques internes font leur apparition. Les concepts de responsabilité sociale et d'informatique verte prennent de l'ampleur. Face à tous ces défis, les départements informatiques se doivent de repenser la stratégie d'administration de leurs centres de données. Cette diapositive fait ressortir les principales tendances (certaines d'entre elles figurent parmi les priorités des DSI (directeurs des services de l'information) et influent directement sur le centre de données). Croissance rapide Source : Statistique des 2/3 : TechTarget, Data Center Purchasing Intentions Survey, 2007 Statistiques 74 % et 43 % : Microsoft Research, Datacenter Trends, n=1400, Mars 07 Virtualisation Statistique 66 % : TechTarget, SearchDataCenter Purchasing Intentions Survey, 2007 81 % : CIO Research Virtualization in the enterprise survey : Your virtualized state in CIO Magazine (Janvier). Responsabilité sociale 5 % d'ici 2009 : Environmental Protection Agency, Report to Congress on Server and Data Center Energy Efficiency, Août 07 Conformité et processus Budget des DSI : L'étude de Gartner explique que les dépenses engagées pour la conformité et la gouvernance d'entreprise représentent de 10 à 15 % du budget informatique 2006 d'une entreprise (voir InformationWeek) 50 % en : L'Europe et les États-Unis tiennent le haut du pavé en termes de gouvernance informatique (Vivian Yeo, Special to CNET News.com), Publication : 28 février 2008 Niveaux de service exigeants 82% des centres sont déjà soumis à des SLA Les centres visent une disponibilité proche de 100% La reprise sur incident joue un rôle vital

7 Une évolution naturelle pour mieux répondre aux besoins
Datacenter Traditionnel Datacenter Virtualisé Datacenter Dynamique privé Datacenter Dynamique public Datacenter Traditionnel Datacenter Virtualisé Nuage Privé Nuage Public CLOUD COMPUTING

8 Cloud et Datacenter Dynamique ?
Comment créer un datacenter dynamique pour fournir un service de Cloud Privé ? Utilisateur du Service IT Fournisseur de Service IT « Datacenter Dynamique » « Cloud Privé » …Deux visions d’une même réalité

9 Qu’est-ce que le Cloud Computing ?
L’ensemble des disciplines, technologies et modèles commerciaux utilisés pour délivrer des capacités informatiques (logiciel, plateformes, matériel) comme un service à la demande Libre service à la demande « Elasticité » rapide Accès réseau, clients variés 5 caractéristiques Mise en commun des ressources Service mesuré et facturation à l’usage Accès réseau, clients varié Mise en commun des ressources Indépendance de l’emplacement Homogénéité « Elasticité » rapide Service mesuré et facturation à l’usage Software as a Service (SaaS) Platform as a Service (PaaS) 3 modèles de services Infrastructure as a Service (IaaS) 4 modèles de déploiement Public Privé Hybride Communautaire

10 L’IT as a Service SOFTWARE PLATFORM INFRASTRUCTURE AS A SERVICE

11 Qui fournit et qui gère quoi?
Modèle classique IaaS « Infrastructure as a Service » PaaS « Platform as a Service » SaaS « Software as a Service » Applications Applications Applications Applications Runtimes Runtimes Runtimes Runtimes Intégration SOA Intégration SOA Intégration SOA Intégration SOA Bases de données Bases de données Bases de données Bases de données Système d’exploit. Système d’exploit. Système d’exploit. Système d’exploit. Virtualisation Virtualisation Virtualisation Virtualisation Matériel serveur Matériel serveur Matériel serveur Matériel serveur Stockage Stockage Stockage Stockage Réseau Réseau Réseau Réseau L’entreprise ou le métier Fournisseur cloud

12 Les motivations pour l’IT as a Service
Maîtrise des coûts & flexibilité de l’IT Passer des coûts matériels (CAPEX) aux coûts opérationnels (OPEX) Accélérer le cycle de mise à disposition des dernières versions Agilité de la gestion des ressources Répondre plus efficacement aux demandes des métiers Mettre à disposition rapidement les ressources nécessaires (time to deliver) Agilité métier Mettre le focus sur les problématiques du métier et non plus sur l’infrastructure Réduction de l’ empreinte carbone Réduire des ressources matérielles nécessaires sur site TBD : titre Plus vite, moins chère These trends can offer dramatic improvements in business agility, operational efficiency and IT maturity with significant cost savings. Customers recognize this and are adopting private and/or public cloud deployments for many usage scenarios.

13 Du Centre de Données au Centre de Services Le Cloud fer de lance d’une stratégie Infrastructure as a Service

14 Le top 10 des plus gros Datacenters
Nom Lieu m2 350 East Cermark Chicago, IL 1.1M QTS Metro DC Atlanta, GA 990K NAP of the Americas Miami, FL 750K Next Generation DC Newport, Wales 750K Microsoft Chicago Chicago, IL 700K Microsoft Dublin Dublin, Ireland 550K Phoenix One Phoenix, AR 538K DuPONT Fabros CH1 Elk Grove, IL 485K Microsoft San Antonio San Antonio, TX 470K Microsoft Quincy Quincy, WA 470K 10. SuperNap Las Vegas, NV 407K 6. MICROSOFT DATA CENTER, DUBLIN, 550,000 SF An aerial view of Microsoft's huge Dublin data center. Microsoft’s new Dublin Data Center represents a milestone in data center design. The new facility will power much of Microsoft’s global cloud computing operation, while using far less energy and water than typically consumed in other data centers of this scale. The Dublin center operates at a Power Usage Effectiveness (PUE) of 1.25, Microsoft says, compared to averages of about 2.0 for the industry. The design innovations driving its efficiency include a “free cooling” system that uses outside air to cool the data center, and a server pod design that employs hot aisle containment to support warmer operating temperatures inside the server space. Microsoft says it can run its server rooms at temperatures of up to 95 degrees F (35 degrees Celsius), much warmer than most data centers, which typically range between 68 and 72 degrees. For more, see Inside Microsoft’s Dublin Mega Data Center and Microsoft’s Chiller-Less Data Center. 5. MICROSOFT CHICAGO DATA CENTER, Chicago 700,000 SF A view of the container area in the new Microsoft data center in Chicago. The enormous Microsoft Chicago Data Center in Northlake, Illinois showcases a container-driven design that Microsoft expects to deliver huge benefits in cost and energy efficiency. The new data center is an unusual hybrid of what Microsoft views as the present and future of data center design, separated by a staircase. The lower level is a vast space with a high ceiling and diagonal parking spaces for double-stacked 40-foot shipping containers filled with up to 2,000 servers. The first phase can hold up to 56 containers, and a second phase (currently shell space) offers identical capacity, giving the Chicago facility a total capacity of 112 containers holding 224,000 servers. The second floor of the enormous facility features traditional raised-floor data center space using hot and cold aisles. The upstairs area includes space for four 12,000 square foot pods of raised-floor space, enough to support tens of thousands of additional servers to power Microsoft’s “Live” suite of online services. For more details and photos, see Inside Microsoft’s Chicago Data Center and Microsoft Unveils Its Container-Powered Cloud. 9A and 9B. MICROSOFT QUINCY AND SAN ANTONIO DATA CENTERS, 470,000 SF An aerial view of the Microsoft data center in Quincy, Washington After years of operating in third-party facilities, Microsoft began building its own data centers in 2007 as it ramped up its battle with Google in the online services arena. Its first in-house project was a huge data center in the small Washington town of Quincy, where Microsoft invested $550 million in building a 470,000 square foot data center supported by hydro-electric power from nearby dams on the Columbia River. A year later it unveiled a similar 470,000 square foot facility in San Antonio, which features a recycled water system to support the facility’s use of more than 8 million gallons of water a month. See A Look Inside Microsoft’s Quincy Data Center and Microsoft Makes San Antonio ‘A Force’ for more on these facilities. An aerial view of the 470,0000 square foot Microsoft data center in San Antonio. Source:

15 Un exemple de transformations associées dans les Datacenters
Génération 1 Co-localisation Génération 2 Densité Génération 3 Conteneurs Génération 4 Modularité (futur) Part 1:  A couple of years ago, when our Data Center Services’ Research & Engineering team within Microsoft’s Global Foundation Services (GFS) group kicked off the Generation 4.0 Data Center design project, we began with the question of: What are the primary business challenges facing data center deployments today?   Challenge #1: Time to Market We kept coming back to a couple of leading issues. The first focused on time to market and meeting a variable demand profile. The issue is simple: it takes months to years to build data centers, but sometimes businesses need to move faster. This issue isn’t entirely new, of course. When we designed our Chicago facility we made significant gains in this area by devoting more than half the facility to housing containers that served as modularized server rooms, or Pre-Assembled Components (PACs).  Server PACs dramatically reduce time to market because they are assembled at the same time as the site infrastructure and building for the data center. When the site preparation is complete all we have to do is roll the containers into the new facility, connect a few cables, and we’re up and running. This advance was the heart of our Generation 3 data center. While we saw it as a great step forward, it almost immediately led us to ask ourselves whether we could take the gains even further by modularizing the entire facility. That led us to the crux of Generation 4, where we created further PACs: Generator PACS, Medium Voltage Switchgear PACs, UPS PACs, etc. By moving to PACs for all these key data center systems, we created a design where almost everything we need to add new capacity can be pre-assembled in parallel and then brought together in a matter of weeks. The fact that the components all come in their own modular containers eliminated the need for much of the on-site construction—which can be the most time-consuming, expensive, and environmentally unfriendly element of building a data center. Perhaps most importantly, with Generation 4 we can quickly add capacity incrementally in response to demand. Gone are the days when we had to wait months for a large data center to be built, only to use a small portion of its capacity while we waited for demand to catch up to capacity. In short, our Generation 4 design delivers a revolution in terms of time to market that the data center industry has never seen before. Challenge #2: Cost The next business challenge (after time to market) is cost. We looked at several areas impacting cost, capital efficiency, and return on invested capital (ROIC), which affects cash flow and is calculated using Net Present Value (NPV). Capital outlay itself is now widely measured by our industry in dollar value ($) per watt, versus square foot. Operational costs that impact Cost of Goods Sold (COGS) are measured in $ per kilowatt per month and are impacted largely by depreciation, energy costs, and operations staffing. A couple of years ago we moved to a chargeback model for power versus real estate, and as Christian Belady pointed out in his blog, that incentive-based approach proved effective in turning the corner on power usage and costs. To tackle other costs in the data center, the use of server PACs is proving equally effective. Using this approach we project our Chicago facility will deliver cost savings of approximately 30 percent and enable a more efficient cash flow because we will not build out the modularized server PACS until they are required. That’s just the beginning of the cost benefits as we move to Generation 4 and fully modularize the data center. The traditional raised floor is not where the majority of the money or lead time is spent. Instead, it is in the electrical and mechanical systems. Moving to PACs in these areas will reduce costs and free large amounts of capital previously required to construct huge facilities that we might not fully utilize for several years. Challenge #3: Efficiency The discussion on the impact of energy costs led us to the next business challenge: efficiency. Efficiency has been called the “fifth fuel” and is regarded as a source of energy in itself. Today the industry is beginning to use Power Usage Effectiveness (PUE) as the recognized metric for data center efficiency.  If we take a look at the larger picture beyond just operational power consumption, the Total Cost of Energy (TCOE) also needs to be considered to address the full lifecycle of the data center–from component manufacturer to transportation to construction and on-site assembly, and even end of life.  When we considered the goal of making our data centers more energy efficient, our team’s debate focused on the inefficiency of using redundant hardware systems to provide backup and failover capabilities. Previously many data centers have been built with the same level of reliability to the highest common denominator.  Our Generation 4 team no longer believes that hardware redundancy is the best way to ensure service reliability. Therefore, we began with a fresh approach to this industry problem by looking at the latest technology capabilities and then establishing multiple classes of service. Each class was assigned a differentiated chargeback model that would encourage our properties to move to the lowest cost and most efficient service level that meets their business needs. To support this we are developing software that moves reliability across all applications higher up the Open Systems Interconnect (OSI) model all the way to the operating system and application layer. The four classes of data center service we have created are still being researched and we may consolidate them over time. Regardless, our goal around software-based reliability matched to hardware levels of reliability is driving the right discussions. Challenge #4: Flexibility and Density The last major challenge we identified was to enable data centers to be flexible and host multiple form factors and levels of density. With traditionally built facilities, the density of the data center is normally set during design. That density then remains unchanged for 15 years or longer during the facility’s lifecycle. Measured in watts per square foot, density can lead to capacity planning challenges. Build with too low a density and the data center will be less energy efficient and take up more real estate than is necessary, which can have a big impact when land is expensive. Build too high a density and you can strand power and cooling, which is where the majority of the costs are. The Goals our Engineering Team Set ·         Reduce time-to-market and deliver the facility at the same time as the computing infrastructure ·         Reduce capital cost per megawatt and reduce COGS per kilowatt per month by class ·         Increase ROIC and minimize the up-front investment for data centers ·         Differentiate reliability and redundancy by data center class and design the system to be flexible to accommodate any class of service in the same facility ·         Drive data center efficiency up while lowering PUE, water usage, and overall TCOE ·         Develop a solution to accept multiple levels of density and form factors, such as racks, skids, or containers       Next week, I will talk about the process we used to develop these ideas.  Click here for the Microsoft 4th Gen Video       /dc      Daniel Costello, director of Data Center Services      Global Foundation Services Daniel Costello is the director for Data Center Services at Microsoft, responsible for data center research and engineering, standards and technologies, data center technology roadmap, Generation 4 data center engineering, data center automation and integration with IT hardware, operating systems and applications.  Daniel also works closely with Microsoft Research on proof of concepts in support of the data center of the future and manages a team of facility engineers and service architects.   Interested in learning more about Green IT? Check out Microsoft’s Webcast Series on TechNet! The series will feature a number of well known speakers, including Christian Belady and Daniel Costello.  The full session listing is provided below: The series will feature a number of well known speakers, including Christian Belady and Daniel Costello. The full session listing is provided below: Title Date Time (PST) URL Transforming the Data Center with Energy Efficiency (Level 200) 5/1/2009 11:00 AM Hyper-Green Virtualization: Scaling Enterprise IT for Energy Efficiency (Level 200) 5/5/2009 10:00 AM Cloud Computing Futures: Creating Greener Clouds with Microsoft Research (Level 200) 5/6/2009 9:00 AM Improving Energy Efficiency w/ Windows 7 Power Management          (Level 200) 5/8/2009 1 Comments Gen 4.0 Data Center, Data Center, Generation 4, gfs, Daniel Costello, Global Foundation Services, IT PAC (Pre-Assembled Components) Scalabilité et Economie d’Energie Serveurs Capacité et Puissance Racks Densité et Maintenance Conteneurs Scalabilité date

16 IT PAC Vidéo

17 Du Datacenter au Centre de Services
Datacenter traditionnel ou virtualisé Accroissement de l’utilisation > 50% Baisse des coûts d’acquisition Cloud privé Baisse significative des coûts d’exploitation Allocation dynamique des ressources Facturation à l’usage Capacité à la demande Accessibilité globale Modèle classique IaaS Applications Applications Runtimes Runtimes Intégration SOA Intégration SOA Bases de données Bases de données Système d’exploit. Système d’exploit. Virtualisation Virtualisation Matériel serveur Matériel serveur Stockage Stockage Réseau Réseau L’entreprise Fournisseur cloud L’IaaS dans l’entreprise est aujourd’hui le modèle dominant de « cloud privé »

18 Les principes du centre de services
Perception de capacité infinie Perception d’une disponibilité non-stop Prédictibilité Approche fournisseur de service Orchestration des processus entre systèmes Elasticité Facturation à l’usage Accès en libre-service Infrastructure du Cloud Perception de capacité infinie Perception d’une disponibilité non–stop Prédictibilité Approche fournisseur de service - accès aux ressources en libre service via un portail Résilience applicative versus redondance matériel Orchestration des processus entre systèmes Elasticité Facturation à l’usage

19 Comment se préparer au Cloud Privé
Comment se préparer au Cloud Privé ? La tête dans les nuages et les pieds sur terre Identification et définition des objectifs Changement du rapport entre DSI et utilisateurs Généralisation de la virtualisation & standardisation sur des serveurs évolutifs Standardisation sur une plateforme d’administration unifiée physique/virtuelle Architecture des ressources en pools et portail de libre service Définition d’un catalogue de services et une grille tarifaire 1. Identifier et préciser les objectifs Un cloud privé sous-tend une infrastructure et une organisation permettant d'allouer à la demande, aux différents projets, les ressources informatiques qui leur sont nécessaires. Il est question de réduire ces délais à l'échelle de la journée, voire de l'heure, contre plusieurs semaines habituellement. Les coûts sont également réduits car un cloud privé est synonyme de standardisation, d'industrialisation et d'optimisation du taux d'utilisation (les ressources peuvent aussi être rapidement libérées ou ajustées). L'enjeu est également "politique". En effet, si la DSI ne s'engage pas dans cette voie, certains utilisateurs souscriront directement des services de cloud public afin de bénéficier immédiatement de ces avantages. "L'évolution vers un cloud privé permet donc à la DSI d'anticiper ces infidélités qui peuvent poser des problèmes de sécurité et de cohérence avec le système d'information", affirme Jean-Pierre Ullmo (photo), directeur des ventes de la BU virtualisation et services d'automatisation chez CA. 2. Changer le rapport entre DSI et utilisateurs "Un cloud privé, c'est en premier lieu un engagement contractuel entre l'entité qui fait tourner l'application et celle qui fait tourner le datacenter", explique Sylvain Siou, directeur technique chez VMware. L'entité qui émet la demande – généralement dans le cadre d'un projet métier – définit ses besoins en termes de ressources, de qualité de service et de durée, même si elle peut être ensuite étendue. Les deux parties sont alors liées par des contrats de services et le cas échéant par une refacturation des coûts. Tout le reste : l'organisation et la transformation des infrastructures, découle de ce prémisse. 3. Définir un catalogue de services et une grille tarifaire Pour formaliser une telle relation, il s'agit de définir un catalogue de services et une grille tarifaire. "Il est conseillé d'afficher les coûts, même si en final ils ne seront pas facturés", recommande en effet Cyril Gobrecht (photo). Cet aspect représente un important changement culturel et financier car traditionnellement les ressources sont achetées et déployées dans le cadre de chaque projet. "Dans la logique d'un cloud privé, l'investissement est au contraire préalable", ajoute Cyril Gobrecht. 4. Mettre à niveau les infrastructures Dans un monde parfait, c'est-à-dire sans existant ni contraintes budgétaires, la mise à niveau des infrastructures en vue de construire un cloud privé passe par une migration massive vers l'architecture x86/x64, une standardisation et une virtualisation presque systématique des serveurs, une mutualisation voire une virtualisation du stockage, ainsi qu'une simplification du réseau. Si possible, l'infrastructure sera en outre répartie entre deux sites construits sur le même modèle et interconnectés en très haut débit afin qu'ils puissent être vus comme une seule et vaste ferme de serveurs. 5. Automatiser au maximum les processus d'exploitation La formalisation des processus d'exploitation, ainsi que leur automatisation, ne sont pas l'apanage d'un cloud privé. Mais une telle démarche doit être poussée le plus loin possible, dans la perspective de configurer et allouer rapidement des ressources. "Il faut parvenir à respecter les contrats de niveau de service (SLA) sans sous-provisionner ni sur-provisionner ces ressources", détaille Jean Pierre Ullmo. Pour autant, l'automatisation est toute relative. "Certains processus sont automatisés, comme la duplication de machines virtuelles, mais l'essentiel des opérations reste piloté par un ingénieur", affirme Christophe Doveil (photo), directeur général d'Ecritel. 6. Déployer un portail de provisioning Le déploiement d'un portail de provisioning en libre-service permettant aux utilisateurs de réserver directement des ressources qui seront allouées sans intervention humaine, doit être vu comme un objectif à moyen terme et ne sera jamais la panacée. "Un dialogue reste nécessaire afin de qualifier les demandes et il s'avère souvent indispensable de réaliser des tests de charges pour dimensionner les machines virtuelles en fonction du type d'application", explique Christophe Doveil (photo). Pour autant, un tel portail permet dans un premier temps d'enregistrer les demandes et de les valider au travers d'un workflow et d'offrir aux utilisateurs une visibilité sur le traitement de leurs demandes en cours. Le déclenchement automatique du processus technique de réservation viendra dans un second temps. Pour construire de tels portails, des produits dédiés sont en train d'émerger, par exemple chez CA, mais il s'agit plus souvent de fonctions ajoutées à des outils de gestion des changements (chez BMC) ou à des produits plus généralistes (chez Microsoft ou VMware). 7. Ouvrir une porte vers le cloud public Certains projets peuvent avoir besoin ponctuellement d'une quantité importante de ressources, qui n'est pas disponible en interne. La solution consiste à les puiser sur des cloud publics. Toute la difficulté consiste alors à assurer une certaine continuité entre ressources internes et externes, afin d'aboutir à un cloud hybride. Les offres permettant de parvenir à ce stade sont encore rarissimes. Par exemple, le portail de provisioning de CA a fait un pas dans cette direction mais se limite pour l'instant, pour le volet cloud public, à l'offre d'Amazon. Automatisation des processus IT

20 La transformation vers le centre de services
La transformation du Datacenter impact l’organisation, ses processus et les technologies sous-jacentes : Mutualisation des ressources Allocation dynamique des ressources Protection des systèmes Déploiement rapide et à la demande Gestion et le contrôle centralisés des systèmes Outillage des opérations Continuité de service (PRA/PCA) Suivi des niveaux de services Catalogue de Services Obtenir une meilleure protection des données, une haute disponibilité et une capacité de récupération d'urgence

21 Une vision de l’IT en couches qui a conduit à des processus en silos
Couches IT Processus en silo Gestion d’incidents Tri & diagnostic Service Desk Intégration Service Desk et outils du centres de données Gestion parc/CMDB Mise à jour des systèmes CI et gestion de parc Configuration Coordination audit, mise en conformité et modifications Sécurité Gestion des correctifs, comptes d’utilisateur, mots de passe On garde les problématiques dans leur ensemble et non plus des populations dediées à chaque périmètre IT Virtualisation Orchestration de la gestion du cycle de vie Serveur Mise en service, vérification, administration & retrait Stockage Mise en service, vérification, administration & retrait Réseau Mise en service, vérification, administration & retrait

22 Une vision de l’IT en couches en opposition aux besoins inter-silos
Couches IT Besoins inter-silos Gestion d’incidents Réaction aux incidents Virtualisation Cloud Computing Service Desk Changements & conformité Mise en service Gestion parc/CMDB Configuration Sécurité Virtualisation Serveur Stockage Réseau date

23 L’automatisation des processus pour briser les silos
Couches IT Mise en service d’un système virtuel Gestion d’incidents Suivre demande de service Arrêter VM MAJ MAJ & fermer demande Cloner nouvelle VM propriétés Mettre en mode maintenance dans Operations Manager Tester VM Déployer applications avec Configuration Manager Vérifier applications Retirer du mode maintenance dans Operations Manager inventaire Interroger Créer Service Desk Gestion parc/CMDB Configuration Sécurité Virtualisation Serveur Stockage Détacher stockage Réseau Détacher carte réseau date

24 Le Centre de Services avec les solutions Microsoft

25 Quels produits Microsoft pour l’Infrastructure as a Service
LIBRE-SERVICE ADMINISTRATION VIRTUALISATION IDENTITé

26 Solution de virtualisation
Technologie Hyper-V de Windows Server 2008 R2 Accès sécurisé Efficacité réseau 64 cœurs et 1 To de mémoire pris en charge par Hyper-V Live migration Services de Cluster avec volumes partagés Virtualisation Performance et évolutivité Dynamic Memory (SP1)

27 Solution d’administration
Gamme System Center Simplifier avec une gestion intégrée : physique, virtuel et cloud Améliorer l’agilité via la fondation de l’infrastructure du Cloud Computing Optimiser la prestation de service au niveau du datacenter et des services métiers critiques Diminuer les coûts via l’automatisation Automatisation des process IT Conception, configuration, et déploiement Virtualisation, déploiement, et gestion Protection et restauration des données Gestion des services IT Supervision, administration de bout-en-bout des services

28 Infrastructure-as-a-Service (IaaS)
Un ensemble de programmes et d’initiatives pour aider nos clients et nos partenaires dans le déploiement de solutions Infrastructure-as-a-Service (IaaS) Deploying IaaS with Hyper-V Cloud To accelerate Infrastructure as a Service deployments, Microsoft has designed a set of programs and initiatives to help deploy cloud environments, based on Windows Server Hyper-V, System Center, and related products. These programs are tailored to specific deployment types according to customer needs and preferences. We are now going to look at the programs for each of the deployment types and some of the initiatives we have put in place to help accelarate your deployment of a cloud infrastructure Lancement du  programme Hyper-V Cloud Fast Track dans lequel Microsoft et ses partenaires proposeront un vaste choix de configurations prédéfinies et validées pour des déploiements de cloud privé, configurations incluant le traitement, le stockage, les ressources réseau, la virtualisation et les logiciels d'administration. Ces programmes et ces offres accélèrent le déploiement de clouds privés en diminuant les risques associés. Lancement du Programme Fournisseur de services « Hyper-V Cloud » regroupant plus de 70 fournisseurs de services dans le monde dont les Français Agarik et Linkbynet. Lancement de Hyper-V Cloud Accelerate, des services fournis par Microsoft Consulting Services et par environ partenaires qualifiés du Microsoft Partner Network (MPN).

29 Fournisseur de services Hyper-V Cloud Hyper-V Cloud Fast Track
Systèmes Pre-Configuré Hébergé Personnalisé Options de déploiement Guides de déploiement Hyper-V Cloud Fournisseur de services Hyper-V Cloud Hyper-V Cloud Fast Track Deploying IaaS with Hyper-V Cloud To accelerate Infrastructure as a Service deployments, Microsoft has designed a set of programs and initiatives to help deploy cloud environments, based on Windows Server Hyper-V, System Center, and related products. These programs are tailored to specific deployment types according to customer needs and preferences. We are now going to look at the programs for each of the deployment types and some of the initiatives we have put in place to help accelarate your deployment of a cloud infrastructure Lancement du  programme Hyper-V Cloud Fast Track dans lequel Microsoft et ses partenaires proposeront un vaste choix de configurations prédéfinies et validées pour des déploiements de cloud privé, configurations incluant le traitement, le stockage, les ressources réseau, la virtualisation et les logiciels d'administration. Ces programmes et ces offres accélèrent le déploiement de clouds privés en diminuant les risques associés. Lancement du Programme Fournisseur de services « Hyper-V Cloud » regroupant plus de 70 fournisseurs de services dans le monde dont les Français Agarik et Linkbynet. Lancement de Hyper-V Cloud Accelerate, des services fournis par Microsoft Consulting Services et par environ partenaires qualifiés du Microsoft Partner Network (MPN). Programmes Hyper-V Cloud Accelerate Microsoft Partner Network (MPN) Hyper-V Cloud Partners Hyper-V Cloud Services

30 Hyper-V Cloud Fast Track Systèmes pré configurés
Portail libre-service VMM SSP v2 Conformité et administration du service IT Automatisation des opérations Administration des environnements physique, Virtuel et applicatifs Administration et supervision des services de bout en bout. Max 1000 VMs par Cluster Live Migration Optimisation matérielle Dynamic Memory – (SP1) Partner Software Technology Disponibilité Elasticité Montée en charge Machine Réseau Stockage

31 Architecture Physique Hyper-V Cloud Fast Track
Compute Pas de patch Management sur le schema ??

32 Hyper-V Cloud Fast Track

33 La transformation du Datacenter
Gérer la planification, le déploiement, la phase de transition et le support des transformations La mise en œuvre “clé en main” ou la transformation d’un Datacenter vers une solution de type “Cloud Privé” L’implémentation de bonnes pratiques d’architecture et de règles de gestion issues de l’expérience et du savoir-faire de Microsoft Global Foundation Services L’architecture d’une solution intégrée à travers les produits Windows Server Hyper-V, System Center, et Forefront La gestion automatisée de l’infrastructure avec les solutions Opalis et Microsoft Solution Accelerators Cette solution incluant les services de Conseils et de Support Microsoft Maturité du Datacenter Scénarios Transformation sécurisée et maîtrisée du Datacenter Standard Transformation vers un Datacenter Optimisé Rationalisé Transformation IaaS (Infrastructure as a Service) Dynamique The Datacenter Services Solution from Microsoft Services enables you to reduce costs, improve operational efficiencies, and drive business agility by delivering an integrated datacenter offering that leverages industry-leading architectures and principles.  The solution encompasses three scenarios that progress your IT infrastructure services which will allow you to effectively deliver Infrastructure-as-a-Service (IaaS) within their organization.  Each offering stage is designed to be comprehensive in that is comprised of infrastructure, management, security, operations, and support guidance, software, and processes that will allow customers to evolve their datacenters in a controlled and predictable way. Microsoft Premier Support is an end-to-end support solution that helps you maximize the value of their on-premise and cloud investments by reducing risks, improving system reliability, and staff productivity.

34 Datacenter Services Solution Architecture

35 Architecture physique

36 Architecture logique

37 Datacenter Services en action

38 En synthèse

39 Du Datacenter au Centre de Services
traditionel Stable & Sécurisé Utilisation <15% Datacenter virtualisé L’utilisation grimpe à plus de 50% Diminution significative des coûts d’acquisition Centre de Services Privé Diminution significative des coûts de gestion Refacturation Capacité à la demande Centre de Services Public Diminution maximale des coûts (économie d’échelle) Couverture globale Une approche concrète du Cloud Computing

40 Quelle solution Hyper-V Cloud ?
Pré-configurée - Hyper-V Cloud Fast Track Approche clés en main Architecture multi-locataire conçue pour un usage général S’appuyant sur des configurations matérielles pré-configurées Principalement conçue pour le provisionnement et déprovisionnement de VMs Portail libre-service SCVMM SSP v2 Personnalisée - DataCenter Services Automatisation forte de l’ensemble des processus Orchestration via Opalis Mise à disposition de workflows de référence Déploiement automatisé et multisite des socles de virtualisation Portail libre-service personnalisable (DDTK-H) Accompagnement Microsoft Services

41 Ressources Infrastructure Cloud Computing Microsoft
Accelerate your journey to the Dynamic Datacenter

42 MSDN et TechNet : l’essentiel des ressources techniques à portée de clic
Portail administration et infrastructure pour informaticiens Portail de ressources technique pour développeurs


Télécharger ppt "Hyper-V Cloud - L'évolution du Datacenter en Centre de Services"

Présentations similaires


Annonces Google