public cloud compute  gpu

Cloudserver optimiert für Massiv Parallel Processing

GPU Instanzen enthalten leistungsstarke Tesla-V100-Grafikprozessoren, um den hohen Anforderungen von Massiv Parallel Processing gerecht zu werden. Und wie alle OVHcloud Instanzen bieten auch sie die Vorteile von Ressourcen on demand und stündlicher Abrechnung. Darüber hinaus sind diese Cloudserver ideal für Machine Learning und Deep Learning geeignet.

Powered by NVIDIA Tesla V100

Diese GPUs gehören zu den leistungsstärksten auf dem Markt und sind speziell auf den Betrieb im Rechenzentrum zugeschnitten. Sie beschleunigen Rechenoperationen in den Bereichen Künstliche Intelligenz (KI) und Grafikberechnungen.

NVIDIA GPU Cloud

Mit dem Ziel, die beste Nutzererfahrung zu bieten, haben sich OVH und NVIDIA zusammengetan, um die leistungsstärkste GPU-beschleunigte Plattform für Deep Learning, High-Performance-Computing und Künstliche Intelligenz (KI) zu entwickeln. Dies ist der einfachste Weg, um GPU-beschleunigte Container über einen umfangreichen Katalog zu deployen und instand zu halten. Mehr erfahren

1 bis 4 Karten mit garantierter Performance

Die Tesla-Karten werden via PCI Passthrough direkt mit der Instanz verbunden, das heißt ohne Virtualisierungsschicht, so dass Ihnen die gesamte Leistung zur Verfügung steht. Darüber hinaus können bis zu 4 Karten hinzugefügt werden, um deren Performance zu bündeln. Auf diese Weise erhält Ihre Anwendung die komplette Rechenkapazität der Hardware.

Eigenschaften der NVIDIA Tesla V100 GPUs

Performance mit NVIDIA GPU Boost

Bandbreite für bidirektionale Verbindungen

CoWoS Stacked HBM2 Memory
  • Double-Precision, 7 TeraFLOPS
  • Single-Precision, 14 TeraFLOPS
  • Deep Learning, 112 TeraFLOPS
  • PCIe 32 GB/s
  • Kapazität: 16 GB HBM2
  • Bandbreite: 900 GB/s

 

Einsatzzwecke

Bilderkennung

Informationen aus Bildern zu extrahieren, um diese zu klassifizieren, ein bestimmtes Element zu identifizieren oder informationsreichere Dokumente zu erstellen, ist in vielen Bereichen erforderlich. Medizinische Bildgebung, soziale Netzwerke, Schutz der Öffentlichkeit , ... All das wird dank Frameworks wie Caffe2 in Verbindung mit Tesla-V100-GPUs möglich und erschwinglich.

Situationsanalyse

In manchen Fällen sind Analysen und Aktionen in Echtzeit erforderlich, um angemessen auf verschiedene und unvorhersehbare Situationen zu reagieren. Dies gilt beispielsweise bei autonomen Autos oder Netzwerktrafficanalysen im Internet. Hier setzt Deep Learning an, um neuronale Netzwerke zu bilden, die während einer Trainingsphase eigenständig lernen.

Menschliche Interaktion

In der Vergangenheit hat der Mensch gelernt, mit Maschinen zu kommunizieren. Heute befinden wir uns in einer Zeit, in der Maschinen lernen, mit Menschen zu kommunizieren. Ob durch Spracherkennung oder Identifizieren von Emotionen über Intonation und Video − Tools wie TensorFlow machen es möglich, die Grenzen dieser Interaktionen zu erweitern, und eröffnen eine Vielzahl neuer Einsatzmöglichkeiten.

Bereit loszulegen?

Erstellen Sie einen Account und starten Sie Ihre Dienste in nur wenigen Minuten

Jetzt loslegen

Verwendung

1

Starten

Starten Sie Ihre Instanz, indem Sie das gewünschte T1-Modell und ein passendes NGC-Image auswählen.

2

Konfigurieren

$ docker pull nvcr.io/nvidia/tensorflow
$ nvidia-docker run nvidia/tensorflow t1

3

Verwenden

Ihr KI-Framework ist bereit für erste Rechenoperationen.

tarif public cloud

Abrechnung der GPU Instanzen

GPU Instanzen werden wie alle anderen Instanzen abgerechnet, d. h. nach Pay-as-you-go am Ende jedes Monats. Der Preis ist abhängig von Größe und Nutzungsdauer der gestarteten Instanz.