Kurs
Noch vor wenigen Jahren galt im Serverraum eine einfache Regel: eine Maschine, eine Aufgabe. E-Mail lief auf einem eigenen Server. Dateifreigaben hatten ihre eigene Kiste. Die Datenbank stand woanders. Jedes System brachte seinen eigenen Patch-Zyklus, Strombedarf und Hardwareausfälle mit – vervielfacht auf einen Raum voller kaum ausgelasteter Maschinen.
Viele dieser Maschinen wurden für den schlimmsten Tag des Jahres angeschafft und warteten den Rest der Zeit herum. Virtualisierung hat diese Rechnung umgedreht. Statt jedem Dienst einen eigenen Server zu widmen, packen Teams mehrere Workloads auf wenige, dafür stärkere Hosts. Jeder Workload läuft weiterhin in seiner eigenen Umgebung, aber der physische Footprint schrumpft: weniger Server zum Kaufen, Verkabeln, Versorgen, Kühlen und später Ausmustern.
Dieser Leitfaden konzentriert sich auf die praktischen Bausteine: Was der Hypervisor macht, wie Typ 1 und Typ 2 einzuordnen sind, wie Ressourcenallokation funktioniert und wie VMs, Container und Cloud-Services zusammenhängen. Ziel ist, dir bei der Toolwahl zu helfen – und die Grenzen zu verstehen, die nach der ersten Definition wichtig werden.

Bild von wirestock auf Freepik.
So funktioniert Virtualisierung
Virtualisierung ermöglicht es einem physischen Host, mehrere „Maschinen“ parallel auszuführen – jeweils mit eigenem Betriebssystem, eigenen Prozessen und eigenem Dateisystem. Das zentrale Bauteil dafür ist der Hypervisor: die Steuerschicht, die CPU-Zeit, Speicher, Storage und Netzwerk auf Gäste verteilt und die Grenzen zwischen ihnen durchsetzt.
Die Hypervisor-Schicht
Der Hypervisor ist der Verkehrsleiter. Gäste fordern CPU-Zeit, RAM-Seiten, Festplatten-I/O und Netzwerkzugriff an; der Hypervisor terminiert diese Anfragen so, dass keine VM die anderen aushungert oder den Host übernimmt.
Moderne CPUs enthalten Virtualisierungserweiterungen (Intel VT-x, AMD AMD-V), die den Übersetzungsaufwand reduzieren, der Desktop-Virtualisierung früher träge machte. Diese CPU-Erweiterungen sind ein Hauptgrund, warum Desktop-Virtualisierung nicht mehr wie ein Laborprojekt wirkt. Mit moderner Hardware ist das Ausführen einiger VMs auf einem Entwickler-Laptop meist langweilig – im besten Sinne.
Mit der Ressourcenzuteilung hast du am häufigsten zu tun:
- CPU: wie viele virtuelle Kerne der Gast sieht
- Memory: wie viel RAM genutzt werden kann, bevor geswappt oder gebremst wird
- Storage: eine virtuelle Festplatte, die sich aus Sicht des Gasts wie ein physisches Laufwerk verhält
- Networking: virtuelle NICs, die über virtuelle Switches mit dem realen Netzwerk verbunden sind
Im Gast wirkt alles normal: Das OS bootet, Pakete werden installiert, Dateien geschrieben, Sockets geöffnet. Was du innerhalb der VM nicht siehst, ist die Schlichtung darunter – wer als Nächstes CPU bekommt, wessen Schreibvorgänge in die Warteschlange gehen und wann der Host an seine Grenzen kommt.
Hypervisor Typ 1 vs. Typ 2
Die meisten Hypervisoren fallen in zwei Kategorien, und der Unterschied liegt vor allem darin, wo der Hypervisor lebt.
- Typ 1 (Bare Metal) läuft direkt auf der Host-Hardware und ist in produktiven Umgebungen Standard, weil darunter weniger Overhead entsteht. ESXi und Hyper-V in Server-Deployments gehören hierher, und KVM wird häufig als Virtualisierungsschicht in Linux-Stacks genutzt.
- Typ 2 (Hosted) läuft als Anwendung auf deinem bestehenden OS. Windows/macOS/Linux bleiben der Host, darauf installierst du VirtualBox oder VMware Workstation. Das ist der einfachste Weg, ein kleines Labor auf einem persönlichen Rechner aufzubauen – und meist der Punkt, an dem viele starten.
|
Typ 1 |
Typ 2 |
|
|
Darunter liegende Schicht |
Nur Hardware, sonst nichts |
Vollwertiges Betriebssystem |
|
Geschwindigkeit |
Besser, weniger Overhead |
Leichter Performanceverlust |
|
Typische Einsatzorte |
Cloud-Provider, Enterprise-Rechenzentren |
Entwickler-Laptops, Heimlabore |
|
Häufige Beispiele |
ESXi, Hyper-V, KVM |
VirtualBox, Workstation, Parallels |
Ressourcenzuteilung
Wenn du eine VM erstellst, triffst du eine Annahme: „Dieser Workload braucht ungefähr so viel CPU, Speicher und Speicherplatz.“ Hypervisoren geben dir Flexibilität, wie diese Ressourcen dargestellt und reserviert werden.
Bei der Storage-Bereitstellung sieht man den Trade-off am deutlichsten:
- Thick Provisioning reserviert die volle Größe der virtuellen Festplatte im Voraus. Erstellst du ein 100-GB-Laufwerk, legt der Host diesen Platz sofort beiseite – egal, ob die VM ihn nutzt oder nicht. Das ist einfach und gut vorhersagbar, bedeutet aber auch: Du zahlst die Storage-Kosten vorab, selbst wenn die VM größtenteils leer ist.
- Thin Provisioning verschiebt die Kosten nach hinten. Der Gast sieht weiterhin 100 GB, aber der Host verbraucht nur Platz, wenn Blöcke beschrieben werden. Das verbessert die Auslastung und ermöglicht Überbelegung, schafft aber auch ein Fehlerszenario: Geht dem Host der echte Speicherplatz aus, können VMs Fehler werfen – und eine schnelle Wiederherstellung ist dann oft schwierig.
CPU und Arbeitsspeicher werden oft mit demselben „Wahrscheinlichkeits“-Ansatz über Overcommitment gehandhabt. Du weist insgesamt mehr virtuelle CPU zu, als physisch vorhanden ist, weil du erwartest, dass Workloads nicht gleichzeitig Spitzen haben. Das funktioniert mit vielen gemischten Workloads gut, kann aber zu Engpässen führen, wenn alles gleichzeitig beschäftigt ist. Overcommitment ist nicht „falsch“ – es bedeutet nur, dass du die Druckpunkte des Hosts im Blick haben musst.
Snapshots und Live-Migration
Zwei Features sind besonders relevant, weil sie den Betrieb im Alltag verändern – nicht nur Architekturdiagramme.
- Snapshots geben dir einen Rücksetzpunkt. Vor einem riskanten Patch oder einer Konfig-Änderung aufgenommen, kannst du schnell zurückdrehen, wenn die VM nicht mehr bootet oder die Anwendung spinnt. Deshalb sind Snapshots in Test/Staging und während Wartungsfenstern üblich.
- Live-Migration ermöglicht es, eine laufende VM mit minimaler Unterbrechung auf einen anderen Host zu verschieben. In der Praxis ist das die Basis für Wartung im großen Maßstab: Host evakuieren, Hardware patchen oder tauschen, Workloads neu verteilen – Kundendienste laufen weiter.
Relevante Arten der Virtualisierung
Es gibt spezialisierte Formen (Netzwerk, Storage, Daten), aber die meisten Teams treffen immer wieder auf drei Kategorien.
Servervirtualisierung
Servervirtualisierung ist das Arbeitstier: Ein physischer Host betreibt viele Serverinstanzen, jeweils als VM mit eigenem OS und eigenen Anwendungen.
Hier zeigen sich die Vorteile schnell. Denk an die typische „kleine Flotte“ in einem Unternehmen: eine leichte Web-App, eine Datenbank, interne Dashboards, ein Scheduler, ein Dateidienst, Monitoring, vielleicht ein Message-Broker. Für sich genommen wirkt jeder Dienst wie ein Kandidat für einen eigenen Server. In der Realität sind viele über weite Strecken kaum beschäftigt. Virtualisierung verwandelt diese Leerlaufzeiten in geteilte Kapazität.
Ein konkretes Beispiel, das viele Organisationen sehen:
10 physische Server → 2 Virtualisierungshosts
Nach der Konsolidierung ändern sich nicht nur die Kosten. Provisionierung wird schneller. Kapazität wird zum Pool statt zu isolierten Inseln. Wenn ein Workload mehr Ressourcen braucht, passt du Zuteilungen an oder verschiebst ihn – statt neue Hardware zu bestellen.
Der Nachteil ist geteiltes Schicksal: Fällt ein Host aus, verschwinden mehrere VMs auf einmal. Darum basieren Produktionsumgebungen auf Redundanz, Monitoring und konservanten Kapazitätspuffern.
Desktop-Virtualisierung (VDI)
VDI betreibt Desktop-Umgebungen als VMs im Rechenzentrum (oder in der Cloud). Nutzer verbinden sich über das Netzwerk; Rechenleistung und Storage bleiben zentral statt auf dem Endgerät.
VDI kommt ins Spiel, wenn Organisationen Folgendes wollen:
- Desktops, die Nutzer geräteübergreifend begleiten
- Zentralisierte Updates, Patches und Richtlinien
- Geringeres Risiko, dass Daten auf verlorenen/gestohlenen Endgeräten liegen
Ein kurzer Vergleich räumt eine häufige Verwechslung aus:
- Remote Desktop: Du meldest dich an einer bestehenden Maschine anderswo an.
- VDI: Die Organisation stellt Desktop-VMs (oft pro Nutzer oder pro Session) auf gemeinsamer Host-Infrastruktur bereit.
Die Bildschirme können ähnlich aussehen, das Betriebsmodell nicht. Latenz ist ein zentraler Faktor, GPU-lastige Arbeit treibt die Kosten schnell hoch, und ein großer Desktoppool erfordert echte Kapazitätsplanung.
Anwendungsvirtualisierung und Container
Container lösen ein anderes Problem als VMs. Statt Hardware zu virtualisieren, um vollständige Gastbetriebssysteme auszuführen, isolieren Container Anwendungen und teilen sich dabei den Host-Kernel. Du bekommst Trennung auf Prozess-/Dateisystem-/Netzwerkebene, ohne ein weiteres Betriebssystem zu booten.
Docker hat dieses Modell alltagstauglich gemacht: Packe App plus Abhängigkeiten als Image und führe dasselbe Artefakt in Entwicklung, CI und Produktion aus. Diese Wiederholbarkeit erklärt die schnelle Verbreitung von Containern – weniger umgebungsspezifische Überraschungen, weniger „installiere erst diese zehn Dinge“-Anleitungen.
Container punkten auch bei der Ergonomie:
- Start in Sekunden statt Minuten
- Oft Megabytes statt Gigabytes an Footprint
- Viele kleine Services lokal ausführen ist realistisch
VMs und Container lösen sich überschneidende, aber unterschiedliche Aufgaben:
|
Anforderung |
Empfohlener Ansatz |
Begründung |
|
Verschiedene Betriebssysteme ausführen |
VMs |
Container teilen den Host-Kernel |
|
Microservices bereitstellen |
Container |
Leichtgewichtig und schnell skalierbar |
|
Starke Isolationsgrenzen |
VMs |
Getrennte Kernel und OS-Instanzen |
|
CI/CD-Pipelines ausführen |
Container |
Geschwindigkeit + Konsistenz haben Priorität |
|
Legacy-Anwendungen unterstützen |
VMs |
Volle OS-Kompatibilität hilft |
Ein häufiges Produktionsmuster ist „Container auf VMs“. Die VM-Grenze dient der Infrastrukturisolation und dem Flottenmanagement; Container übernehmen Deployment und Skalierung auf Anwendungsebene. Unser Introduction to Docker Kurs behandelt die Container-Basics. Unser Containerization and Virtualization with Docker and Kubernetes Lernpfad geht tiefer in Orchestrierungsmuster.
VMs vs. Container vs. Cloud: Was ist der Unterschied?
Diese Begriffe werden oft zusammengeworfen, weil sie häufig im selben Stack auftauchen. Hilfreich ist die Trennung nach dem, was du tatsächlich bekommst: ein isoliertes Betriebssystem (VM), eine isolierte Anwendungs-Laufzeitumgebung (Container) oder eine verwaltete Plattform, die beides bereitstellt (Cloud).
Virtuelle Maschinen
Eine virtuelle Maschine bündelt ein vollständiges Betriebssystem plus virtuelle Hardware und Anwendungen. Jede VM hat ihren eigenen Kernel – das sorgt für starke Isolation zwischen Workloads auf demselben Host.
Der Preis ist Gewicht: Volle OS-Instanzen brauchen mehr Speicher, booten langsamer und erzeugen größere Images. Dieser Overhead ist in der Produktion oft akzeptabel, weil Isolation und Kompatibilität den Aufwand wert sind.
Container
Container teilen sich den Kernel des Host-OS und isolieren gleichzeitig die Anwendungsumgebung. Dieser gemeinsame Kernel macht Container leicht und schnell. Images sind meist kleiner und einfacher zu verteilen – ideal für moderne Deployment-Workflows.
Container-Isolation ist real, aber nicht gleichbedeutend mit „getrennte Kernel“. Container hängen weiterhin am Host-Kernel. Darum beeinflussen Workload-Sensibilität und Sicherheitsanforderungen, ob Teams Container direkt auf Hosts oder innerhalb von VMs betreiben.
Cloud Computing
Cloud-Plattformen setzen auf Virtualisierung (und oft auf Container) und verpacken sie in eine verwaltete Steuerungsebene: APIs, Provisionierung, Abrechnung, Netzwerke und Services, die du nicht selbst betreibst (Datenbanken, Queues, Objektspeicher, Monitoring).
Wenn du eine EC2-Instanz startest, mietest du praktisch eine VM aus dem AWS-Fuhrpark. Andere Produkte – Serverless-Funktionen, Managed-Container-Services – nutzen leichtere Isolationsmechanismen, aber der rote Faden ist derselbe: Die Cloud stellt Ressourcen on demand bereit und versteckt viel Infrastrukturarbeit hinter einer API.
Eine einfache Entscheidungslogik:
- Nutze VMs, wenn OS-Trennung oder Kompatibilität die Architektur bestimmen.
- Nutze Container, wenn schneller Start und ein reproduzierbares Deployment-Artefakt im Vordergrund stehen.
- Nutze Cloud-Services, wenn Elastizität und Managed Operations wichtiger sind als die volle Kontrolle über die Hosts darunter.
In der Praxis ist die „gestapelte“ Variante üblich: Cloud-VMs hosten Kubernetes-Cluster, die Container planen, die wiederum Anwendungen ausführen. Für mehr Kontext zur Cloud-Architektur schau dir unseren Understanding Cloud Computing Kurs und unseren Understanding Microsoft Azure Architecture and Services Kurs für Azure-spezifische Services an.
Warum Virtualisierung wichtig ist
Virtualisierung hält sich, weil sie in Entwicklung, Betrieb und Datenarbeit reale Probleme löst.
Entwicklung und Testing
Virtualisierung macht kontrollierte Umgebungen günstig. Du willst eine Pipeline auf zwei OS-Versionen testen? Erstelle zwei VMs, führe dieselben Schritte aus, vergleiche das Verhalten. Du willst ein riskantes Upgrade probieren? Erst Snapshot, dann loslegen, bei Bedarf zurückrollen.
Sie nimmt auch Reibung aus Cross-Plattform-Checks. Eine Entwicklerin auf macOS kann Verhalten unter Windows validieren, ohne mehrere physische Maschinen vorzuhalten.
Für Datenarbeit ist Reproduzierbarkeit das Dauerthema. Ergebnisse hängen oft von einem spezifischen Mix aus Paketen, Systembibliotheken und Konfiguration ab. Virtualisierte Umgebungen helfen, diese Abhängigkeiten stabil und portabel zu halten.
Kosten und Effizienz
Ressourcen zu bündeln ist der Grundvorteil: Du zahlst nicht mehr für zehn Leerlaufmaschinen, sondern nutzt die gleiche Hardware konsistenter.
Einsparungen zeigen sich an nüchternen, messbaren Stellen: weniger Serverkäufe, weniger Rack-Fläche, geringere Kühlreserven, weniger Wartungsverträge und ein kleinerer Hardwareberg, der irgendwann ersetzt werden muss. Konsolidierung eliminiert den Betrieb nicht, aber sie verändert seine Form.
Flexibilität und Skalierung
Provisionierung wird zur Softwareaufgabe. Statt Hardware zu bestellen, zu warten, zu racken und ein OS zu installieren, klonen Teams ein Template, setzen Zuteilungen und deployen.
Auch das Skalieren ist weniger starr. Steigt die Nachfrage, fügst du VMs hinzu oder passt bestehende an. Fällt sie, gewinnst du Kapazität zurück – statt einen physischen Server monatelang unterauszulasten.
Notfallwiederherstellung wird nicht automatisch, aber die Virtualisierung verändert den Werkzeugkasten. Wenn der „Server“ ein verwaltetes VM-Image plus Daten ist, lassen sich Replikations- und Recovery-Strategien leichter standardisieren als in der Ein-App-pro-Box-Ära.
Häufige Herausforderungen – und wie du sie angehst
Virtualisierung beseitigt eine Klasse von Problemen und bringt eine andere mit sich. Die meisten Themen sind nicht mysteriös, sondern Ressourcenlimits, Konkurrenz um Ressourcen oder Hygiene im Betrieb.
Performance-Probleme
Die häufigste Beschwerde ist Konkurrenz: Mehrere VMs kämpfen um dieselbe CPU-Zeit, Speicherbandbreite oder Storage-I/O. Alles fühlt sich gut an, bis mehrere Workloads gleichzeitig Spitzen haben – dann steigt die Latenz und der Durchsatz sinkt.
Was in der Praxis hilft:
- Beobachte die Host-Metriken, nicht nur Gastmetriken (CPU Ready Time, Memory Pressure, Disk-Latenz/I/O-Wait).
- Regelmäßig neu dimensionieren. Beide Extreme schaden: Überzuweisung verschwendet Kapazität, Unterzuweisung führt zu Swapping und Thrash.
- Anhaltend hohe Auslastung als Kapazitätssignal werten und entsprechend planen – statt VM für VM Symptomen hinterherzulaufen.
Eine Minderheit von Workloads gehört weiterhin auf Bare Metal: extreme Latenzanforderungen, enge Kopplung an Spezialhardware oder Echtzeitbedingungen, bei denen selbst geringe Scheduling-Jitter inakzeptabel sind.
Sicherheitsaspekte
VM-Isolation ist stark, aber kein Schutzschild. Hosts werden geteilt, Hypervisoren sind kritische Infrastruktur, und Schwachstellen – wenn auch nicht alltäglich – gibt es.
Eine praktikable Sicherheitslinie sieht so aus:
- Hypervisoren und Hosts zügig patchen
- Netzwerke segmentieren, damit „gleicher Host“ nicht „gleiche Vertrauenszone“ bedeutet
- Hochsensible Workloads trennen, wenn das Risikoprofil es erfordert
Container fügen eine weitere Entscheidungsstufe hinzu: Ob Container direkt auf Hosts oder in VMs laufen, hängt von deinen Isolationsanforderungen und deinem Betriebsmodell ab.
VM-Wildwuchs
Virtualisierung macht das Erstellen einfach, dadurch wachsen Umgebungen schnell. Ohne Leitplanken endest du mit verwaisten VMs, unbekannten Eigentümern und Maschinen, die „für alle Fälle“ existieren.
Ein praktikables Vorbeugungsmodell:
- Eigentümer- und Zweck-Tags verlangen
- Ablaufdaten für Dev/Test-VMs vergeben
- Nutzung regelmäßig prüfen (und wirklich Leerlaufendes löschen)
- Aufräumen in Nicht-Produktionsumgebungen automatisieren
Audits finden oft erstaunlich viele VMs, die lange Zeit wenig tun. Die Lösung ist selten kompliziert – meist Disziplin und Lifecycle-Management.
Virtualisierung in der Praxis
Virtualisierung steckt in vielen Tools, die Teams täglich nutzen – auch wenn sie nicht so genannt werden.
Entwicklung und Data Science
CI/CD-Systeme führen Jobs häufig auf kurzlebigen VMs oder Containern aus, damit jeder Pipeline-Run sauber startet. So vermeidest du Dependency-Drift und machst Fehler leichter reproduzierbar.
Isolation verhindert auch Kollisionen zwischen Projekten. Ein Workflow braucht ältere CUDA-Bibliotheken, ein anderer neuere Versionen. Getrennte Umgebungen verhindern das Tauziehen um Abhängigkeiten.
Gehostete Notebooks sind ein weiterer Ort, an dem Virtualisierung zählt. Wenn du Jupyter auf Plattformen wie Colab nutzt, läuft das Notebook in einer Infrastruktur, die jemand anders betreibt. Mit diesem Verständnis wirken Ressourcengrenzen, Neustarts und Dateisystemverhalten weniger rätselhaft.
Enterprise und Cloud
Cloud-Provider betreiben Virtualisierung im großen Maßstab. Ihr Geschäft hängt davon ab, verschiedenste Kunden-Workloads effizient auf gemeinsamen Flotten zu platzieren und dabei Isolationsgrenzen zu wahren.
Unternehmen nutzen dasselbe Prinzip zur Konsolidierung und für Legacy-Kompatibilität. Eine ältere Anwendung zu virtualisieren, kann sie auf moderner Hardware weiterbetreiben, lange nachdem der ursprüngliche Server ausgedient hätte.
Für hybride Setups gibt es Services wie AWS Outposts, weil Organisationen weiterhin Cloud-ähnliche Modelle wollen, während einige Workloads näher an ihren eigenen Standorten laufen.
Lernen und Experimentieren
Virtualisierung bleibt eine der sichersten Umgebungen zum Lernen. Du kannst eine Linux-VM starten, frei experimentieren, etwas kaputtmachen, zum Snapshot zurückkehren oder sie komplett löschen – ohne dein Hauptsystem anzutasten.
Sie eignet sich auch, um Mehrschichtensysteme auf einer Maschine zu simulieren: Web-Tier, App-Tier und Datenbank-Tier kommunizieren über virtuelle Netzwerke – genug Realismus, um die Konzepte zu lernen, ohne Cloud-Rechnung.
Wohin sich Virtualisierung entwickelt
Mehrere Trends prägen die Nutzung von Virtualisierung in den nächsten Jahren.
Edge Computing verlagert mehr Workloads näher dorthin, wo Daten entstehen. Leichte VMs und Container standardisieren Deployments an verteilten Standorten, bringen aber auch eigene Betriebs-Komplexität mit sich.
Intelligentere Ressourcennutzung reift weiter. Plattformen automatisieren Right-Sizing zunehmend, balancieren Workloads aggressiver neu und decken Verschwendung schneller auf – besonders dort, wo manuelles Tuning nicht skaliert.
Und schließlich werden hybride Stacks zur Norm. Kubernetes dominiert in vielen Umgebungen die Container-Orchestrierung, und „Container in VMs“ bleibt ein gängiges Produktionsmuster: VM-Isolation auf Infrastrukturebene, Container-Flexibilität auf Anwendungsebene. Unser Introduction to Kubernetes Kurs deckt die Grundlagen ab.
Fazit
Virtualisierung macht moderne Infrastruktur im großen Maßstab praktikabel: Sie teilt einen physischen Host in isolierte Umgebungen auf, die sich erstellen, vergrößern, verschieben und außer Betrieb nehmen lassen – ohne ans Rack zu gehen.
Für uns Datenmenschen ist das kein Hintergrundwissen am Rande. Es zeigt sich in reproduzierbaren Umgebungen, in Abhängigkeitskonflikten zwischen Projekten und in den kleinen „Warum wurde dieses Notebook neu gestartet?“-Momenten, die mehr Sinn ergeben, wenn du an die verwaltete Laufzeit darunter denkst.
Am schnellsten verinnerlichst du die Konzepte mit einem Minilabor: Installiere einen Hypervisor vom Typ 2, erstelle eine Linux-VM, mach einen Snapshot, provoziere einen Fehler und rolle zurück. Führe dann einen ähnlichen Workload in einem Container aus und vergleiche: Startzeit, Ressourcenbedarf und was „Isolation“ in jedem Fall wirklich bedeutet.
Hier sind gute Ressourcen, um dranzubleiben:
- Containerization and Virtualization Concepts (Hands-on-Grundlagen)
- Introduction to Docker (Container in der Praxis)
- Containerization and Virtualization with Docker and Kubernetes (Lernpfad, Grundlagen → Orchestrierung)
Josep ist Data Scientist und Projektmanager beim katalanischen Fremdenverkehrsamt und nutzt Daten, um die Erfahrungen von Touristen in Katalonien zu verbessern. Sein Fachwissen umfasst das Management von Datenspeicherung und -verarbeitung, gekoppelt mit fortschrittlichen Analysen und der effektiven Kommunikation von Datenerkenntnissen.
Er ist auch ein engagierter Pädagoge, der den Big-Data-Masterstudiengang an der Universität von Navarra unterrichtet und regelmäßig aufschlussreiche Artikel über Datenwissenschaft auf Medium und KDNuggets veröffentlicht.
Er hat einen BS in technischer Physik von der Polytechnischen Universität von Katalonien und einen MS in intelligenten interaktiven Systemen von der Universität Pompeu Fabra.
Derzeit engagiert er sich leidenschaftlich dafür, datenbezogene Technologien durch die Medium-Publikation ForCode'Sake einem breiteren Publikum zugänglich zu machen.
FAQs
Was ist der Unterschied zwischen Hypervisor Typ 1 und Typ 2?
Typ 1 läuft direkt auf der Hardware – darunter nichts. Typ 2 braucht zuerst Windows oder Mac darunter. Server nutzen Typ 1. Dein Laptop läuft wahrscheinlich mit Typ 2, wenn du VirtualBox verwendest.
Wann sollte ich eine VM statt eines Containers nutzen?
Kommt ganz darauf an. Du brauchst Windows und Linux auf derselben Maschine? VM. Du baust Microservices? Container sind sinnvoller. Du machst dir Sorgen um Isolationssicherheit? Zurück zu VMs.
Brauche ich teure Hardware?
Ein Laptop mit 16 GB reicht für ein paar VMs gut aus. VirtualBox ist kostenlos.
Ist Virtualisierung dasselbe wie Cloud Computing?
Cloud nutzt Virtualisierung, packt aber viel mehr oben drauf – etwa Abrechnung, Provisionierungs-APIs, verwaltete Datenbanken und Netzwerke. Virtualisierung ist eine Schicht in diesem Stack.

