Mit iOS 13.2 und der Einführung von Deep Fusion ist es an der Zeit, die Verbesserung zu analysieren, die dies für die Kameras des neuen iPhone 11 und 11 Pro bedeutet.
Apple hat seinen neuen Modus vorgestelltTiefe Fusionbei der Keynote-Vorstellung des neuen iPhone im vergangenen September. Obwohl sie uns erklärten, woraus es bestehen würde, sagten sie uns nichts über die Einschränkungen oder welche Szenarien uns auf diese Weise bekannt sein würden. Na dann, fast zwei Monate später und mitiOS 13.2seitdem offiziell gestartetGizmodo UKSie haben einen Vergleich der Kamera gemachtiPhone 11 Provor dem Deep Fusion-Modus und wie er jetzt ist, wobei das Gerät bereits auf die neueste Version aktualisiert wurde und dieser Modus funktioniert.
Stellen wir es mal in den Kontext: Wie funktioniert Deep Fusion?
Um es allen Zielgruppen zu erklären: iPhones machen mehrere Schnappschüsse (genauer gesagt neun) der Szene, die wir fotografieren möchten, jeweils mit Messungen und Anpassungen, um dank der Belichtungsschwankungen die größtmögliche Detailgenauigkeit zu erfassen, und dann ist die Neural Engine dafür verantwortlich um sie zu verschmelzen, das Beste aus jedem einzelnen herauszuholen und ein Bild mit überragenden Details zu schaffen.
Sie könnten interessiert sein | So verwenden Sie Deep Fusion auf dem iPhone 11 und 11 Pro
Jetzt ist es an der Zeit, den „dunklen“ Teil davon im Detail zu beschreiben:Deep Fusion funktioniert nicht mit Ultraweitwinkel, und wir können es nicht nach Belieben aktivieren, es ist das iPhone, das je nach Lichtverhältnissen entscheidet, ob das Foto dies erfordert. Wie bisher bekannt, wird der Weitwinkel bei Fotos mit mittlerer oder schlechter Beleuchtung aktiviert, bei praktisch allen Fotos mit Tele, außer denen mit starker Beleuchtung, auch. Wir müssen bedenken, dass, wenn wir das habenFotoaufnahmemodus außerhalb des Rahmens, das gleichzeitig ein Foto mit Weitwinkel und ein weiteres mit Ultraweitwinkel aufnimmt. Für den Fall, dass wir es später korrigieren müssen, wird der Deep Fusion-Modus nie aktiviert.
Ist es so ein großer Unterschied, ob man den Deep Fusion-Modus hat oder nicht?
Die Antwort istkommt auf die Umstände anSchauen wir uns einige Beispiele an und können beurteilen, wann Deep Fusion die schärferen Fotos erstellt, von denen Apple gesprochen hat.
In diesem ersten Bild, das sie zum Vergleich genommen habenGizmodo UK, wir können sehen, wieMan muss genau hinschauen, um die Verbesserung zu sehen. Wir müssen zu den subtilen Texturdetails der amerikanischen Flagge oder den Rändern der Uhrenzahlen gehen, um wirklich eine Verbesserung im Foto zu erkennen.
In diesem zweiten Bild müssen wir noch genauer hinsehen, um den Unterschied zu erkennen, und das ist esNur durch Zoomen können wir diese zusätzliche Schärfe erkennenworüber sie in der Präsentation gesprochen haben, als Deep Fusion angekündigt wurde. Erst wenn wir am unteren Rand des Fotos angelangt sind und uns den weißen Rand der Terrasse, der dort erscheint, im Detail anschauen, können wir eine Verbesserung in der Schärfe erkennen. Die bisherige Verbesserung, die wir dank Deep Fusion sehen können,obwohl es wahr ist, dass es existiert, rechtfertigt nicht den Hype, den es während der Keynote von Apple erhalten hat. Kommen wir zu einem dritten Foto mit anspruchsvolleren Details.
Wenn wir das Fell des Hundes vergrößern, können wir sehen, wieDie gebotene Schärfe ist dem iPhone ohne deutlich überlegen, und hier können wir deutlich die Verbesserung erkennen, die Deep Fusion eingeführt hat, selbst wenn das mit dem nicht aktualisierten iPhone aufgenommene Foto unscharf erscheint. Denken wir daran, dass beide mit demselben Gerät aufgenommen wurden, eines aktualisiert und mit diesem Modus vorhanden und das andere ohne.
Dies zeigt, wo diese Deep Fusion auffällt, undEs sind die Texturen, die ihm zusätzliche Details verleihenDas macht den Unterschied zu dem, was wir bisher vereinbart hatten.
Ein erster Schritt in einer Technologie, die noch viel Entwicklung vor sich hat.
Apple hat einen Modus für hohe Details und Schärfe sowie eine hervorragende Kamera eingeführtin praktisch allen Szenarien, denen wir bei der mobilen Fotografie begegnen können. Nachdem man nun die Bedingungen und Umstände gesehen hat, unter denen sich Deep Fusion auszeichnet, ist klar, dass dies nur ein erster Schritt in einer Technologie ist, die Apple noch erheblich weiterentwickeln kannWir werden sicherlich in zukünftigen Versionen von iOS und neuen Geräten neue Funktionen sehen.. Dann können wir die Computerfotografie unserer Geräte voll ausnutzen.
Du kannst folgeniPadisiertInFacebook,WhatsApp,Twitter (X)konsultieren oder konsultierenunserem Telegram-Kanalum über die neuesten Technologienachrichten auf dem Laufenden zu bleiben.