Quantcast
Channel: VMware-Forum
Viewing all 12369 articles
Browse latest View live

vSphere 6.5 • Re: langsame Performance Festplatten innerhalb VMs

$
0
0
Hallo,

also auf deinem ESXTOP Output kann ich keinerlei Auffälligkeit erkennen, allerdings ist da ja auch nichts los.
Gerade einmal 3 Disks haben überhaupt IOs zu bedienen, und das sind auch gerade einmal knapp 40 IOs pro Disk.

Wenn du die Disks im Verdacht hast solltest du im ESXTOP auf folgende Werte achten.
  • DAVG ist die durchschnittliche Antwortzeit (Latency) der Disk, je nach Typ sind 10ms völlig normal
  • CMDS/s Anzahl der IO Kommandos pro Sekunde gegen die Disk
  • ACTV Anzahl der aktiven Kommandos, dieser Wert sollte immer unter dem Wert von DQLEN liegen
  • QUED enthält nur dann Werte wenn ACTV=DQLEN, die IO's warten im ESXi auf die Disk
Gruß,
Ralf

Statistik: Verfasst von kastlr — 28.01.2018, 13:28



Hardware • Virtualisierung KMU ca 20 VMs

$
0
0
Hallo, Guten Tag!

Ich sitze hier in einem kleinen Unternehmen auf folgender Hardware:

Server:
Dell Poweredge R510 (ESX 5.0, ca 6 Jahr alt)
2 x Intel Xeon E5620 (16 Kerne)
48 GB Ram
6 x 500GB SATA 7,2K (Raid 5)

Speicher:
Synology RS814RP+
4 x 2TB (Raid 5)

Daurauf laufen:
1 x Windows Server 2008R2 (AD, Fileserver, DHCP, DNS)
2 x Linux Server (WWW, FTP, DB)
1 x vCenterServer (Essentials Lizenz)
7 x virtualisierte Desktops (WinXP - Win10, nur Office Anwendungen)

Gewünscht wäre jetzt auch noch die restlichen Arbeitsplätze zu virtualisieren womit die Gesamtanzahl der Desktops dann bei ca. 20 wäre (25 inkl. Server).
Teilweise laufen einzelne Desktops sehr zäh. (ca 1 mal pro Woche kommt ein User und klagt über eine langsame Maschine - da kann man dann teilweise beim Bildaufbau zuschauen)

Die Server VMs liegen auf dem Host direkt.
Die Desktop VMs auf der Synology auf 2 LUNs verteilt (über ISCSI in den ESX gehängt)

Ich hab halt die befürchtung sobald die restlichen Desktops auch noch virtuell sind dass das System dann nur noch hängt.

Ich denke dass mein Problem beim Zugriff auf die Festplatten liegt. Host und Speicher sind nur über ein 1GB Kabel verbunden. Der Host hat 2 Netzwerkanschlüsse wobei einer für die DMZ verwendet wird. Auf der Synology sind 4 Anschlüsse vorhanden. Würde die Erhöhung der Bandbreite zwischen Host und Synology etwas bringen?

Der Chef wäre bereit in einen neuen Server zu investieren (mehr Kerne, mehr Ram, mehr Netzwerkanschlüsse?).

Kann jemand von euch abschätzen wo mein Flaschenhals ist / sein wird.

Danke im Vorraus, Christian

Statistik: Verfasst von zgeo — 29.01.2018, 11:12


Hardware • Re: Virtualisierung KMU ca 20 VMs

$
0
0
Der R510 dürfte schon 7-8 Jahre alte sein. Dazu sinds keine 16 Kerne, sondern nur deren 2x4 + 2x4 HT.

die Probleme liegen also nicht an den Netzwerkanschlüssen.

Folgende Baustellen sehe ich:
WinXP Desktops... _Bloß weg damit!
CPUs
RAM
Storage Speed
MS VDI ! Lizenzen nicht vergessen für die virtuellen Desktops. Ich mutmaße bisber normale Lizenzen. ( damit nicht Lizenz-konform)
Daher eher über Citrix oder anderes nachdenken. Da sind aber schlauer wie ich.

Also eigentlich alles! :D

Der ein oder andere hier kann dir sicher auch gleich nen Angebot ( Dell z.b. irix) abgeben.
Ich befürchte nur, das Budget wird dich erst mal am Chef scheitern lassen.

Ebenso sollte euch bewußt sein, dass nur 1 neuer Server der alle Desktops hostet ein riegsiger SPOF ist.

Es bedarf also eher schon an einem konkreten Konzept für die Umsetzung.

So mal grob:
2x R440 Host mit 2x8 Kern CPU und 128GB Ram
entweder Shared Storage oder lokal mit Replikation über Veeam.
Die Synology könnte man gut für Backups nutzen.

Mit Lizenzen und so schätze ich zwischen 20-30K. Je nach Storage usw.
Mit welcher Zahl wolltest du zum Chef?

Statistik: Verfasst von Supi — 29.01.2018, 11:42


vCenter / VMware VirtualCenter • Vsphere 6.5 und LACP

$
0
0
Hi zusammen,

ich bin neu hier und hab auch schon gleich eine Frage. Ich würde gerne LACP nutzen, ich hab das LAG auch schon soweit konfiguriert:

1.JPG


Meine Frage ist jetzt, wenn ich das LAG "scharf" schalte, geht dann die Verbindung verlohren bis ich den Switch entsprechend eingestellt habe?

2.JPG


Ich brauch hierzu leider eine 100% Antwort, denn wenn da die Verbindung verloren geht hab ich ein Problem! Auf der Verbindung laufen diverse Systeme die ich jetzt auch nicht verschieben kann. Ich würde wenn ich das LAG scharf geschaltet habe dann im zweiten Schritt auf dem Switch das Port Trunking konfigurieren....

Dann brauch ich auch noch eine Info, gibt's es irgendwo ein Whitepaper in dem Beschrieben ist was was macht?

3.png


Danke und Gruß

Statistik: Verfasst von gizmoxxl — 29.01.2018, 14:12


vCenter / VMware VirtualCenter • Re: Vsphere 6.5 und LACP

$
0
0
Bei LACP muss auf beiden Seiten was gemacht werden und somit gibt es immer einen Zeitraum bei der Einrichtung wo es nicht geht... im lfd. Betrieb macht man sowas also nicht.

Je nach Anzahl der Uplinks kannst du den Traffic ja auch erstmal da laufen lassen und wenn LACP funktioniert dann auf den Switch/PG migrieren.

Frage: Was versprichst du dir von LACP fuer den ESXi?

Gruss
Joerg

PS: Davon abgesehen erlebe ich es selten das Aenderungen am Netzwerk auf Anhieb und im ersten Anlauf funktioneren.

Statistik: Verfasst von irix — 29.01.2018, 14:22


vSphere 6.0 • Re: hpe esxi 6.0 U3: p420-batterie-status unknown UND disks normal, herabgestuft

$
0
0
hallo,
habe die Lösung für den herabgestuften Zustand gefunden. die disks übe rdne p420 werden nicht als lokal erkannt und deswegen erwartet esxi mindestens 2 Pfade darauf. Sind diese nicht da, werden die disks herabgestuft. hier die Lösung, mit de rman die disks auf local umstellen kann, dann ist der Status nicht mehr herabgestuft:
https://communities.vmware.com/thread/579692

lg

ps: battery status ist immer noch unknown, habe mich damit abgefunden.

Statistik: Verfasst von Bert777 — 29.01.2018, 20:48


vSphere 6.0 • iscsi-adapter aktiviert: scratch-Pfad weg!

$
0
0
hallo,
esxi 6.0 U3 (hpe custom image vom Oktober 2017). installation auf sd-crad, deswegen scratch partition umgestellt manuell angepasst auf einen angelegten ordner auf einem datastore mit ScratchConfig.ConfiguredScratchLocation. Hat wunderbar funktioniert bis gestern, als ich erstmals iscsi-Speicheradapter angelegt/aktiviert habe, um iscsi-targent mit lun auf einem qnap als datastore einzubinden. nach einem neustart des Hosts 8ich glaube es was nach einen Neustart, nicht sicher), war plötzlich eine Warnung da, in etwa "Logdatateien werden auf einen nicht dauerhaften Speicher gespeichert" oder so. Habe mir ScratchConfig daraufhin angesehen, und mein eingetragener Pfad war weg und ersetzt mit "/scratch". habe also wieder Pfad eingetragen, rebootet damits übernommen wird, aber es wurde nicht übernommen. habe dann iscs-adapter wieder gelöscht und dann wurde der Scratch-Pfad wieder übernommen nach reboot.

Habe dann gegoogelt und das gefunden:
https://communities.vmware.com/thread/563431
woanders wurd emir noch gesagt, dass man auch Syslog -> gobal -> Syslog.gloabl.logDir anpassen soll. habe ich gemacht und den Pfad in den log-ordner im Scratch-ordner zeigen lassen. dann habe ich iscsi wieder einegrichtet. im momentgehts, abe rich glaube beim nächsten reboot ist wieder alles hin. So wie ich das verstehe (siehe link) mus sich die iscsi-driver updaten. ein elxiscsi so wi im link gibts aber für 6.0 offenba rnicht. ich im Moment installiert (war beim hpe custom iso dabei):
scsi-mpt2sas--15.10.06.00-1OEM.550.0.0.1331820--Avago--VMwareCertified--2017-02-01
bnxtnet--20.6.302.0-1OEM.600.0.0.2768847--BCM--VMwareCertified--2017-02-01
net-tg3--3.137l.v60.1-1OEM.600.0.0.2494585--BRCM--VMwareCertified--2017-02-01
brcmfcoe--11.2.1213.0-1OEM.600.0.0.2768847--EMU--VMwareCertified--2017-02-01
elxnet--11.2.1149.0-1OEM.600.0.0.2768847--EMU--VMwareCertified--2017-02-01
ima-be2iscsi--11.2.1147.5-1OEM.600.0.0.2494585--EMU--VMwareCertified--2017-02-01
lpfc--11.2.266.0-1OEM.600.0.0.2768847--EMU--VMwareCertified--2017-02-01
scsi-be2iscsi--11.2.1147.5-1OEM.600.0.0.2494585--EMU--VMwareCertified--2017-02-01
amsd--600.11.1.5-16.2494585--HPE--PartnerSupported--2017-02-01
bootcfg--6.0.0.02-03.00.5.2494585--HPE--PartnerSupported--017-02-01
conrep--6.0.0.03-00.00.8.2494585--HPE--PartnerSupported--2017-02-01
cru--6.0.9.8-1OEM.600.0.0.2494585--HPE--PartnerSupported--2017-02-01
fc-enablement--600.3.1.5.4-2494585--HPE--PartnerSupported--2017-02-01
hponcfg--6.0.0.5.0-2.2.2494585--HPE--PartnerSupported--2017-02-01
ilo--600.10.1.0.12-1OEM.600.0.0.2494585--HPE--PartnerSupported--2017-02-01
oem-build--600.10.1.5-2494585--HPE--PartnerSupported--2017-02-01
scsi-hpsa--6.0.0.128-1OEM.600.0.0.2494585--HPE--VMwareCertified--2017-02-01
smx-provider--600.03.12.50.3-2768847--HPE--VMwareAccepted--2017-02-01
ssacli--3.10.3.0-6.0.0.2494585--HPE--PartnerSupported--2017-02-01
testevent--6.0.0.02-00.00.8.2494585--HPE--PartnerSupported--2017-02-01
scsi-hpdsa--5.5.0.52-1OEM.550.0.0.1331820--Hewlett-Packard--PartnerSupported--2017-02-01
scsi-hpvsa--5.5.0.100-1OEM.550.0.0.1331820--Hewlett-Packard--PartnerSupported--2017-02-01
net-i40e--2.0.6-1OEM.600.0.0.2494585--INT--VMwareCertified--2017-02-01
net-igb--5.3.3-1OEM.600.0.0.2494585--INT--VMwareCertified--2017-02-01
net-ixgbe--4.5.2-1OEM.600.0.0.2494585--INT--VMwareCertified--2017-02-01
intelcim-provider--0.5-3.3--Intel--VMwareAccepted--2017-02-01
nmlx4-core--3.15.5.5-1OEM.600.0.0.2768847--MEL--VMwareCertified--2017-02-01
nmlx4-en--3.15.5.5-1OEM.600.0.0.2768847--MEL--VMwareCertified--2017-02-01
nmlx4-rdma--3.15.5.5-1OEM.600.0.0.2768847--MEL--VMwareCertified--2017-02-01
nmlx5-core--4.15.8.8-1OEM.600.0.0.2768847--MEL--VMwareCertified--2017-02-01
nmst--4.6.0.101-1OEM.600.0.0.2768847--MEL--PartnerSupported--2017-02-01
smartpqi--1.0.0.1060-1OEM.600.0.0.2768847--MSCC--VMwareCertified--2017-02-01
qedentv--2.0.7.2-1OEM.600.0.0.2768847--QLC--VMwareCertified--2017-02-01
misc-cnic-register--1.713.30.v60.1-1OEM.600.0.0.2494585--QLogic--VMwareCertified--2017-02-01
net-bnx2--2.2.6b.v60.2-1OEM.600.0.0.2494585--QLogic--VMwareCertified--2017-02-01
net-bnx2x--2.713.30.v60.9-1OEM.600.0.0.2494585--QLogic--VMwareCertified--2017-02-01
net-cnic--2.713.30.v60.6-1OEM.600.0.0.2494585--QLogic--VMwareCertified--2017-02-01
qlnativefc--2.1.57.1-1OEM.600.0.0.2768847--QLogic--VMwareCertified--2017-02-01
scsi-bnx2fc--1.713.30.v60.6-1OEM.600.0.0.2494585--QLogic--VMwareCertified--2017-02-01
scsi-bnx2i--2.713.30.v60.5-1OEM.600.0.0.2494585--QLogic--VMwareCertified--2017-02-01
nvme--1.2.0.27-4vmw.550.0.0.1331820--VMware--VMwareCertified--2017-02-01
lsu-hp-hpsa-plugin--2.0.0-12vmw.600.0.0.2494585--VMware--VMwareCertified--2017-02-01

sehe ich das richtig, dass ich statt diesem elxiscsi aus dem link diese 2 nehmen muss, um iscsi-rechnisch up to date zu sein??
VMware ESXi 6.0 elxnet 11.1.245.27 NIC Driver for Emulex and OEM Branded Adapters
und
VMware ESXi 6.0 be2iscsi 11.2.1263.23 iSCSI driver for Emulex and OEM Branded Adapters

danek für hilfe, lg

Statistik: Verfasst von Bert777 — 29.01.2018, 21:06


vSphere 6.0 • Re: iscsi-adapter aktiviert: scratch-Pfad weg!

$
0
0
Da hat doch VMware oder einer der Zulieferer nen Fehler eingebautet gehabt. Man konnte zwar Scratchconfig setzen... nur verwendet wurde er nicht. Da gabs IIRC 2 Workarounds fuer. Einer war den Emulex zu installieren?

Lief mal im VMTN nach.

Gruss
Joerg

Statistik: Verfasst von irix — 29.01.2018, 21:21



vSphere 6.5 • Re: Kann OVF nicht importieren (Zeitüberschreitung)

$
0
0
Alles klar, Danke Leute, dann suche ich mir keinen Wolf.

Statistik: Verfasst von pcpanik — 30.01.2018, 07:28


vSphere 6.5 • Re: langsame Performance Festplatten innerhalb VMs

$
0
0
Hallo,

danke für die Rückantwort.

Ja, rein von der Sache und den ESX Werten wo ich sehe war nichts zu erkennen. War auch auf Kurs von Performanceanalysen von VMware und da wurden rein bei den AVG Werten 20-30 als eigentlich normal einzuschätzen, wenn es nicht dauert haft ist und dies konnte ich so gut wie noch nie beobachten.
Rein von den Wertern sehe ich nichts direkt was seltsam erscheint oder ESXi Hosts direkt die Ursache sind.

Was nur verstärkt oder bei einigen Systemen nicht zu greifen ist, warum die Platte behauptet sie wäre voll ausgelastet und in den ESXtop werden ist nahezu nichts zu erkennen. Rein von der Sache bisher zum Glück nie groß Probleme gehabt, doch momentan steigt irgendwie die Beobachtungen des Verhaltens das Platten aktive Warteschlangen haben oder 100% Auslastung.

Deswegen wollte ich mal hier in Erfahrung bringen ob jemand so etwas auch hier und da beobachtet hat oder in den Werten anderes sieht als ich :grin:
Oder evtl. noch ideen hat wo man ansetzen kann für Analysen.

Grüße
Tom

Statistik: Verfasst von SWHTR — 30.01.2018, 11:30


VMware Workstation • Ctrl + Alt deaktivieren

$
0
0
Guten Tag zusammen.

Habe mir kürzlich eine Kubuntu VM Aufgesetzt und dort CLion (Um c++ zu programmieren) installiert. Mir ist aber aufgefallen, wenn ich z.B. ein "{" oder "[]" machen möchte (was man ja viel braucht), geht das nicht, weil da die tastenkombination jedenfalls bei mir (CH_Latin1) ctrl + alt + ä/ü ist.

Bei den VMWare einstellungen habe ich das ctrl alt zum rausgehen schon deaktiviert und alles andere auch das ich gesehen habe. Trotzdem möchte es mir diese Tastenkombination einfach nicht annehmen und ich dene an Kubuntu liegt das auch nicht....was kann ich da machen?

Vielen Dank

Claudio

Statistik: Verfasst von claudio26 — 30.01.2018, 21:32


VMware Workstation • Re: Ctrl + Alt deaktivieren

$
0
0
Hi

Drück halt Alt Gr (rechts von Space), um die Zeichen zu schreiben. Ich wusste gar nicht, dass das mit Ctrl + Alt auch geht...

Ctrl Alt zum verlassen des Fensters würd ich wieder aktivieren. Das braucht man, um das Fenster zu verlassen.

Statistik: Verfasst von MarroniJohny — 31.01.2018, 00:02


vSphere 6.5 • Re: RS2BL040 Treiber für ESXI 6.5

$
0
0
Moin moin,

so mit Rufus und Dos nun 2 Updaes gemacht (Zwischenschritt war notwendig). Controller wird aber immer noch nicht erkannt. Vermutlich habe ich mit den Vib Dateien den richtigen Treiber deinstalliert ?! Kann ich den irgendwie noch mal von der CD holen bzw. irgendwo runter laden?! An sonsten installier ich den Hypervisor noch mal neu ?!

Grüße

Statistik: Verfasst von ostseehuepfer — 31.01.2018, 00:54


vSphere 6.5 • ESXI 6.5 U1

$
0
0
Moin moin,

würde meinen ESXI auf 5.6U1 aktualisieren. Im VMWare Portal bekomme ich aber gesagt das ich dafür nicht lizensiert bin. Muss ich das Update erwerben?! Oder muss ich dafür einfach nur Freigeschaltet werden?!

Grüße

Statistik: Verfasst von ostseehuepfer — 31.01.2018, 08:53


vSphere 6.5 • Re: ESXI 6.5 U1

$
0
0
Bist du dir sicher, daß du den richtigen Download erwischt hast?

Statistik: Verfasst von Dayworker — 31.01.2018, 13:24



vSphere 6.5 • Re: Beobachtungen Migration 5.5 nach 6.5 Netzwerkkarten

$
0
0
Die Einstellung dürfte mMn eigentlich erst erscheinen, wenn die NIC für PCI-Passthrough freigegeben wurde. Ansonsten ist die Online-Hilfe bei VMware dein bester Freund, was VMware mit dieser Einstellung eigentlich bezwecken wollte. Genauso gut wäre es möglich, daß das wieder mal ein kapitaler Fehler einer sinnentstellenden 1:1-Übersetzung ist.

Worüber konfigurierst du diese VM?

Statistik: Verfasst von Dayworker — 31.01.2018, 13:29


Hardware • Re: Massive-Luecke-in-Intel-CPUs-erfordert-umfassende-Patche

$
0
0
Ich laß mich mal überraschen, ob Intel das endlich für die neueren CPU gebacken bekommt, damit auch die älteren CPUs wie mein Ivy Bridge an die Reihe kommen. Linus hat Intel für den verschleiernden Müll, den sie in der LKML abgeliefert haben, ja gehörig den Marsch geblasen. Packt das Popcorn aus und lest bei https://lkml.org/lkml/2018/1/21/192 nach. :D

Statistik: Verfasst von Dayworker — 31.01.2018, 13:47


vSphere 6.0 • Re: hpe esxi 6.0 U3: p420-batterie-status unknown UND disks normal, herabgestuft

$
0
0
Keine Ahnung weshalb HPE die Platten am P420 nicht als Lokale kennzeichnet. Die mit VSphere6.5 sich ergebenden Änderungen waren auch HPE vorher bekannt und deshalb muß HPE auch den unbekannten Batteriestatus bugfixen. Bei der Gelegenheit könnte man auch mal auf die VMware-HCL schauen, ob der Controller überhaupt noch unter 6.5 bzw 6.5U1 supportet oder bereits als deprecated gelistet wird.

Statistik: Verfasst von Dayworker — 31.01.2018, 13:54


vSphere 6.0 • lokalen esxi datastore als shared storage; 2. esxi nested in workstation - mein Plan so möglich?

$
0
0
hallo,

vorab. bin relativer vmware-Neuling.
Ich habe einen esxi host (vsphere 6.0 U3, hpe customized image; Lizenz Standard; hardware hp ml310e gn8 v1). Auf diesem host sind l 2 Raid1 mit jeweils 1 datastore, also alles lokal. Auf datastore 1 befinden sich die normalen VMS`s (Windows Server, libreELEC, Antivirus-Appliance, etc.), auf datastore 2 habe ich (weil auf dem ersten kein Platz mehr war), vCenter 6.5 (vcsa) installiert. vCenter für einen einzelnen host ist nicht notwendig, ist mir klar, aber ich will halt lernen und probieren. Jetzt habe ich gelernt, dass ich den update manager der vcsa nicht zum patchen des eigenen Hosts verwenden kann. Ich habe jetzt überlegt, wie ich das löse, ohne einen 2. physischen Host anzuschaffen. Meine Idee:
Ich installiere mir auf meinem Windows PC vmware workstation. Jetzt gehen die Fragen los:
1.) Macht es Sinn bzw. ist es besser, wenn ich in workstation ein nested esxi mache? oder besser ganz normal die VMs "direkt" installieren? Ich tippe auf nested esxi.
2.) Gehen wir jetzt davon aus, ich habe in der workstation nested esxi, also einen 2. (virtuellen) Host als Ergänzung zu meinem physischen Host. Dieser nested esxi soll auf shared storage zugreifen. (Zwischenfrage: Soll dieser shared storage besser iscsi oder nfs sein?) Diesen shared storage könnte ich auf einer Qnap einrichten, aber ich habe mir gedacht, es wäre doch besser, wenn ich die 2 lokalen datastores (oder zumindest datastore2, auf dem vcsa liegt) in shared storage umwandeln, damit ich die VM`s darauf auch aus der workstation heraus starten kann. Ist sowas prinzipiell möglich, also lokale Platte in einem escxi-host als shared storage zu konfigurieren und geht das auch noch nachträglich, also mit vm`s drauf? Wenn das nicht geht, dann würde ich nur für die vcsa einen neuen shared storage wie gesagt auf der qnap machen und die vcsa dorthin migrieren.
3.) Soweit ich weiss, kann ich VMs mit vMotion migrieren (bisher habe ich noch nie was mit vMotion gemacht bzw. eine VM überhaupt verschoben). Diese Funktion ist aber in der vcsa drin, oder? Kann die vcsa dann auch sich selbst woanders hin migrieren?

Mein idealer Endzustand wäre, dass die beiden lokalen datastores in meinem host beide shared storage sind (noch besser wäre, aus den beiden raid 1 ein raid 10 zu machen mit einem großen Datastore, aber ich will nicht zuviele baustellen aufreissen), und ich meine VM`s auf diesen beiden datastore auch auf dem nesrted esxi-host in de rworkststion auf meinem PC ausführen kann, zumindest die vcsa auf datastore2.

So, das wäre mein Plan. Ich habe als Neuling keine Ahnung, ob das so überhaupt realisierbarr ist und wenn, ob es Sinn macht ode rob es da bessere Lösungsmöglichkeiten gibt. Wenn ihr Profis was dazu sagen könntet, wäre das super. ich danke euch. Wen ihr zusätzliche Infos braucht, um mir zu helfen, bitte einfach fragen,
lg Bert

Statistik: Verfasst von Bert777 — 01.02.2018, 11:01


vSphere 6.0 • Sind ESXi Patche kumulativ?

$
0
0
Hallo Community

Situation:
Single ESXi 6.0 Update 2 (Build 3620759)

Ziel:
Update auf die aktuelle ESX 6.0 Update 3 Version + akt. Patche via zip Datei und SSH

Frage:
- Ich muss bestimmt erst "update-from-esxi6.0-6.0_update03" installieren?
- Kann ich dann gleich "ESXi600-201711001" installieren oder muss ich "ESXi600-201703001" > "ESXi600-201706001" > "ESXi600-201710001" > "ESXi600-201711001" in der Release Reihenfolge installieren?

Danke!

Statistik: Verfasst von Ozelott — 01.02.2018, 11:45


Viewing all 12369 articles
Browse latest View live