Jump to content

Decker/Rigger


Wandler
 Share

Recommended Posts

Drohnen nehmen - wenn - dann direkt Informationen aus der Matrix wahr, bereiten sie auf und leiten sie ggf. an die Kontrollinstanz weiter. Drohnen sind Geräte, ergo kommunizieren sie regulär wie andere Geräte auch direkt mit der Matrix.

 

Da braucht man keine Krücke über eine AR-"Sicht". 

 

Die AR ist eine "Visualisierung" der Matrix in Form einer "Überblendung/Anreicherung" der Realität mit Hilfe von Brillen, Kontaktlinsen, etc. ... weil es eben die einfachste Art für einen Metamenschen ist, die Matrix "parallel" zur realen Welt wahrzunehmen.  

Edited by Masaru
  • Like 1
Link to comment
Share on other sites

  • 3 weeks later...

Ob Geräte nun Icons direkt in der Matrix wahrnehmen, oder als AR ist in meinen Augen Haarspalterei. 
Das Fahrzeug bemerkt das Virtuelle Verkehrsschild, und auf welche Weise ist sekundär. 
Man kann in meinen Augen also Annehmen, das Drohnen AR "sehen". Hier wird eher die optische Komponente weggelassen als die Digitale. (WiFi haben alle, Kammeras nur die meisten ;) )

Link to comment
Share on other sites

@Zoldor: Das hat nichts mit Haarspalterei zu tun. 

 

Die Augmented Reality dient Metamenschen/Lebenwesen, welche keine natürlichen Schnittstellen/Verbindungen zur Matrix haben (TM ausgenommen), diese wahrzunehmen, indem Informationen "über seine regulären Sinneswahrnehmungen" gelegt werden (je nach Equipment kann das von visuell über akkustisch bis hin zur Nutzung aller Sinne gehen).

 

Ein Gerät hingegen nimmt bereits die Matrix war, es hat bereits seine Standardschnittstelle(n) zur Matrix.

 

Also nochmal: Drohnen "sehen" mit Sicherheit nicht die AR ... da die AR ein reines Matrix-Mensch-Interface ist.

Link to comment
Share on other sites

@Zoldor: Das hat nichts mit Haarspalterei zu tun. 

 

Die Augmented Reality dient Metamenschen/Lebenwesen, welche keine natürlichen Schnittstellen/Verbindungen zur Matrix haben (TM ausgenommen), diese wahrzunehmen, indem Informationen "über seine regulären Sinneswahrnehmungen" gelegt werden (je nach Equipment kann das von visuell über akkustisch bis hin zur Nutzung aller Sinne gehen).

 

Ein Gerät hingegen nimmt bereits die Matrix war, es hat bereits seine Standardschnittstelle(n) zur Matrix.

 

Also nochmal: Drohnen "sehen" mit Sicherheit nicht die AR ... da die AR ein reines Matrix-Mensch-Interface ist.

Eigentlich ist ja nur die Frage interessant, ob Sie ICON´s in direkter Sicht zu ihnen und innerhalb von 100 Metern korrekt zurordnen können.

Link to comment
Share on other sites

Icons = Geräte, Persona, Hosts, Dateien (wobei die fliegen vermutlich nicht mal so eben in den Gittern rum, was sie ausschließt)

 

.... und die können sie (wenn nicht ggf. durch Rauschen oder Schleichfahrt unterbunden) zuordnen, ggf. sogar je nach Schnittstellen-Implementierung mit ihnen direkt oder indirekt interagieren/kommunizieren.

Edited by Masaru
Link to comment
Share on other sites

Warum willst Du Informationen, die der Drohne sowieso bekannt sind, nochmal durch einen Image-Link mit AR-Überlagerung ermittelt lassen?

 

Warum dieses Doppelte-Satteln eines Rosses? Warum nicht gleich die Daten direkt weiterleiten?

 

Die Drohne ist ein Gerät in der Matrix und nimmt Informationen aus dieser und über die eigene Antenne direkt in 100m Umkreis wahr/auf und leitet diese ggf. direkt an den Empfänger zurück.

 

Nehmen wir mal für letzteres das Beispiel, dass es sich beim Empfänger um ein Trideo-Projektor im HQ der Sicherheit handelt.

 

Die dortige Processing-Einheit am Trideo-Projektor nimmt dann die empfangenen Daten der Drohne entgegen und baut ihrerseits ein Holo-Bild mit allen Infos über Positionierung anderer Geräte, Sensor-Indikatoren (z.B. visuell ermittelter Eindringlinge), etc. auf.

 

Ersetze alternativ den Trideo-Projektor durch das Kommlink eines wachhabenen Sicherheitsmannes, dem die Daten dann inform von AROs in sein SIchtfeld geschoben werden. Diese AROs kommen aber nicht von der Drohne, sondern aus dem Kommlink des Wachmannes, welches die gesendeten Daten des Drohne empfangen und interpretiert hat.

 

Und für das alles braucht die Drohne weder AR, noch einen Image-Link, etc. ... punkt. Sie ist bereits mit der Matrix verbunden.

 

 

Die AR ist ein reines Metamensch-Matrix/Matrix-Metamensch-Interface.

 

:blink:

Edited by Masaru
Link to comment
Share on other sites

Mit der AR-Sicht einer Kamera sehe ich ganz salopp gesagt, was für ICONS (Physischer Standort) gerade durch mein Sichtfeld wandern.

Bekomme also ICON und Physischen Standort unter einen Hut.

Ohne sehe ich nur einen Metamenschen vor der Linse.
Mit AR-Sicht sehe ich noch das Commlink in seiner Tasche, seine Ausrüstung, usw... und weiß dass es zu IHM gehört.

 

Ohne diese Sicht, sind eine Menge ICON´s um die Drohne, aber die Drohne müsste für jedes ICON das ihr nicht gehört ein Track Icon durchführen um es physisch zu lokalisieren.

 

Wenn man also Decker und Rigger mixen möchte, sollte man schon den Drohnen AR Sicht geben, da dass das gezielte Markieren oder Angreifen mittels Deck um einiges erleichtert. ;)

Edited by S(ka)ven
Link to comment
Share on other sites

AR-Sicht  in/aus einem Gerät heraus ist völliger Bullshit.

 

... lass es mich noch einmal versuchen:

  • Die Kamera ist ein Gerät, welches z.B. an eine Wand geschraubt ist.
     
  • Sie hängt da also nun so rum und nimmt via Sensoren (die Kamera selbst, ggf. Infrarot, Restlichtverstärkung, etc.) visuelle Dinge auf (schreibt sie vielleicht in eine Datei oder leitet sie durch die Matrix an einen Empfänger)
     
  • Nun ist die Kamera folglich ja auch ein "online" Gerät in der Matrix.
     
  • D.h. die Kamera befindet sich mindestens auf einem Gitter, kann dort (in der Matrix also) gesehen und mit ihr interagiert werden. 
     
  • Im Umkehrschluss heisst das aber auch, dass die Kamera ebenfalls "Matrix-Daten" die da so in 100m Umkreis rumschwirren, ebenfalls "aufnehmen" kann.
     
  • Und neben den rein "visuell sensorischen" Daten kann die Kamera (wenn der Beistzer es denn so will und vielleicht auch das nötige Kleingeld in eine entsprechend be-featurete Kamera investiert hat) auch diese "Matrix" Daten parallel mit in die Datei speichern, bzw. an einen Empfänger weiterleiten.

Was der Empfänger mit diesen Daten nun macht? Wie er sie genau visualisiert? Ob z.B. als AR-/Flachbildüberlagerung oder sogar als 3D Hologramm durch einen Trideo-Projektor?

 

Das ... ist der Kamera zum Zeitpunkt der "Sammlung von Daten aus verschiedenen Quellen" gelindet gesagt ... drecks-egal.

 

 

Wenn man also Decker und Rigger mixen möchte, sollte man schon den Drohnen AR Sicht geben, da dass das gezielte Markieren oder Angreifen mittels Deck um einiges erleichtert.  ;)

 

Markierungen in der AR (AROs) sind auch wiederum nur "dargestellte Informationen" -> nämlich Geo-Daten (Koordinaten).

 

Und wenn ein Rigger dann eine solche Koordinate, in "seiner AR-Sicht" als ARO dargestellt, nun wiederrum nimmt um sie der Drohne als "Angriffsziel" mitzuteilen ... was meinst Du, passiert dann im Hintergrund?

 

Genau: die Daten werden (interpretiert aus der AR-Interaktion des Riggers, zerlegt in Geo-Daten, sagen wir mal GPS oder gar erweitert um eine Sensor-Signatur, wenn die Drohne zuvor eine solche am Ziel aufnehmen konnte) wieder zurück an die Drohne über die Matrix geschickt.

 

Bei der Drohne kommt dann kein Bildchen oder so an, sondern etwas ähnliches wie "<attack//geo_x:12,y:15,z:1231>".

 

Die Drohne kriegt kein ARO mehr, welches sie irgendwie "visueller" Natur über ein eigenes Image-Link interpretieren müsste, sondern die genauen Koordinaten und Zusatzinformationen auf einem rein technischen Kanal (Schnittstelle und Protokolle), welches sie benötigt um mit dem Spatzenhirn von Pilot das Ziel bestmöglichst zu identifizieren und mit der Vindicator zu behaken.

 

AR = Metamensch/Maschinen (vice versa) Interface ... eine Drohne braucht so'n quark nicht, sie kann die Matrix auch so lesen ;).

Edited by Masaru
Link to comment
Share on other sites

Ok, nehmen wir mal dein Beispiel.

Die Kamera ist auf z.B. auf einer Autobahn zur Verkehrsüberwachung installiert und scannt die Fahrzeuge.

 

Runner "Granaten Joe" hat den letzten Run so richtig versaut und das Auto was er gerade fährt wird gesucht.

Ohne das zu wissen fährt er nun über die Autobahn.

 

Die Kamera nimmt nun ihn und seinen Wagen auf und bekommt nebenbei die Info, geklautes Fahrzeug-ICON in 100m...

Leider kann die Kamera jetzt leider nicht Info A: Bild vom Auto mit Info B: ICON vom Auto miteinander kombinieren.

Der Wachhabende Polizist bekommt also die Meldung, kann aber über die Kamera jetzt auch nicht den Wagen genau angezeigt bekommen.

Also schickt man wohl einen Streifenwagen los, um den Wagen "optisch" auf der Straße zu suchen oder mittels Sicherheitsdecker zu lokalisieren.

 

Wenn die Kamera AR-Sicht gehabt hätte, läge INFO A und B (Mit der exakten Position des ICONS) zusammen vor und die Kamera hätte das ICON gleich "markieren" können zur weiteren Verfolgung.

Hätte der Polizei lästige Sucherei ersparen können, denn Sie hätten gleich eine Überwachungsdrohne über den Wagen setzen können und ein Streifenwagen wüsste auch, wo er genau hin muss.

 

Dass AR-Sicht in Kameras bei Security vorhanden ist, steht auch so in einer der Geschichten des GRW drin.

Da fällt dem Wachhabenen auf, dass die ICONS´s die eine Kamera (im Zeitschleife/Standbild) anzeigt, derzeit ganz woanders in der Anlage unterwegs sind.

Link to comment
Share on other sites

*seufz*

 

Du hast ein Verständnisproblem was "Augmented Reality" ist.

 

Bei dieser Technik werden (auch 2075):

  • visuelle Daten (wie z.B. die, die durch das Bild der Überwachungskamera geliefert werden)
    mit
  • Positionsdaten (dem Icon/Gerät des geklauten Fahrzeugs)

miteinander kombiniert.

 

Wenn die Datenquellen nicht ausreichen, um einen Punkt hinsichtlich seiner Topologie (örtliche Beziehung von Objekten zueinander) zur Kamera via Matrix zu bestimmen, dann können auch keine AROs für eine AR-Sicht (die es wie gesagt nur am/für Metamenschen gibt) erzeugt werden.

 

 

Die Kamera nimmt nun ihn und seinen Wagen auf und bekommt nebenbei die Info, geklautes Fahrzeug-ICON in 100m...

 

Leider kann die Kamera jetzt leider nicht Info A: Bild vom Auto mit Info B: ICON vom Auto miteinander kombinieren.

 

Genau DAS wäre aber auch das, was eine AR-Sicht macht.

 

---

 

Und die Anspielungen von AR-Sicht in den Fluff-Geschichten spielen auch nicht darauf an, dass die Kamera die AR-Einblendungen erzeugen, sondern lediglich die Daten für die visuelle Aufpeppung an der Kameramonitoren der Wachmannschaft liefert.

 

Nochmal zusammengefasst:

  • Kameras liefern Daten (z.B. Aufnahme durch Sensoren, Daten aus der Wifi-Matrix, etc.)
  • Kommlinks, Computer, etc. bereiten Daten auf und visualisieren diese -> Bildschirm, Trideo Hologramm, AR, VR, SimmSin, etc.
Edited by Masaru
Link to comment
Share on other sites

@Masaru:

Also ich finde die Möglichkeiten die im Augmented World Kapitel beschrieben werden schon ein wenig "umfangreicher" und unterscheidend im Vergleich zur "Voll-Matrix".

 

Wie die Kamera und das Commlink/Deck am Ende zusammenarbeiten ob die Daten davor oder danach schon gescannt und zusammengefasst werden ist für mich nicht so essententiell wichtig.

 

Ein Problematik die mir halt im Unterschied zu AR und VR auffällt ist, dass wenn man in AR-Sicht durch die Straßen geht, man z.B. die Commlinks und andere Ausrüstung der Personen sieht und diese Theoretisch dann auch gleich "angreifen" kann.

Wenn ich als ICON in VR bin, ist die Realität weg und ich sehe nur noch ICON´s um mich herum, wo ich garnicht so genau weiß, wo die sind...

Ich sehe nur was alles in 100 Metern um mich herum vorbeifliegt.

Wenn ich nun das Commlink einer Zielperson suche, muss ich erstmal ein Merkmal des Commlinks kennen, dann eine Matrix-Wahrnehmung werfen.

Wenn ich es dann gefunden habe, dann kann ich nur mittels Matrix-Befehl "Trace Icon" den genauen physischen Standort auf einer Karte ermitteln.

 

Wenn ich in einer Konzernanlage einem Wachmann der auf mich feuert, die blöde Knarre bricken möchte, dann sollte man erstmal einen kurzen Blick mit AR riskieren, ob ich das mit einer Kamera, Brille, Monokel oder per Cyberaugen oder direkt DNI mache ist erstmal egal.

Dann sehe ich Wachmann, sein Commlink, seine Knarre und alles andere an ihm und kann die Pistole auch sofort mittels Datenspike bearbeiten.

Wenn ich das nicht mache, sondern gleich VR gehe, sehe ich vielleicht 20 Walther Secura in 100 m, da ja noch ein paar mehr Wachmänner im Gebäude sind... Jetzt kann ich alle 20 Pistolen abklappern und mit "Trace Icon" lokalisieren, bis ich endlich die gefunden habe, die direkt 10 Meter vor mir ist.

 

Die Kamera ohne AR-Link macht zwar schöne Bilder und nimmt nebenbei auch alles aus der Matrix auf... aber ohne das Upgrade sollte Sie nicht in der Lage sein die Daten so zu sammeln, dass ein Kommlink oder Computer da später noch ein vernünftiges AR Bild zusammen bekommt, wie in Augmented World beschrieben, da der Kamera eindeutig die Technik fehlt um ARO´s und co. visuell zu sehen, lokalisieren und entsprechend interpretieren.

Link to comment
Share on other sites

Deine Gegenüberstellung AR - VR ist wirklich gut gelungen :).

Das ist auch mitunter auch "der" Grund im 5er System (gegenüber z.B. dem 3er) warum ein Hacker endlich mal mit vor Ort bei der Gruppe sein sollte. Wo es endlich mal Sinn macht.

 

 

Wie die Kamera und das Commlink/Deck am Ende zusammenarbeiten ob die Daten davor oder danach schon gescannt und zusammengefasst werden ist für mich nicht so essententiell wichtig.

 

Ähm ... Du sprichst die ganze Zeit davon, dass das Kombinieren von phys. Aufnahme + Matrix-Informationen zu einer AR-Darstellung bereits in der Kamera stattfinden würde.

Da das bereits "heute" nicht so funktioniert, wird es auch 2075 nicht so funktionieren und für das weitere Verständnis ist es sehr wohl essentiell wichtig, wo die Aufbereitung stattfindet und welche Rolle diese oder jene Komponente darstellt.

 

AR = Die Matrix (bzw. eine Untermenge) als Überlagerung der realen Welt zu sehen. Dafür verwenden die Metamenschen 2075 einen Satz von Ausrüstung:

  1. ein Gerät die GPS-Position des Sehenden zu bestimmenden (mind. ein Kommlink)
  2. eine Möglichkeit die "Blickrichtung" zu bestimmen (Brille, Kontaktlinsen, Cyberaugen, das Gehirn mit DNI, etc. die ebenfalls GPS-Koordinaten und Höhen/Richtung-Sensoren, etc. haben)
  3. eine Datenquelle: die Matrix (Wifi machts erst möglich)
  4. ein Wiedergabe-Gerät (wieder z.B die Brille, Kontaktlinsen, Cyberaugen)
  5. die Fähigkeit die Ausgangs-Positionsdaten (GPS-Position + Blickrichtung) mit den Positionsdaten der Matrix-Entitäten (wie Icons von Geräten, Persona, AR-Programmen, etc.) zu verwerten ... hierfür braucht man "Rechenkapazitäten" => Terminal, Kommlink, Cyberdeck, etc.
  6. um somit schlussendlich AROs (etc.) so auf das Wiedergabe-Gerät zu projizieren, dass der Träger die AROs im dreidimensionalen Raum auch an der richtigen Stelle wieder wahrnimmt
 

Die Kamera ohne AR-Link macht zwar schöne Bilder und nimmt nebenbei auch alles aus der Matrix auf... aber ohne das Upgrade sollte Sie nicht in der Lage sein die Daten so zu sammeln, dass ein Kommlink oder Computer da später noch ein vernünftiges AR Bild zusammen bekommt, wie in Augmented World beschrieben, da der Kamera eindeutig die Technik fehlt um ARO´s und co. visuell zu sehen, lokalisieren und entsprechend interpretieren.

 

Wenn bereits simple Kontaklinsen + Kommlink das können, dann kann eine "Kamera" das doch mindens auch ... oder meinst du etwa nicht?

 

Nach GRW gibt es kein AR-Link oder eine Feature-Abstufung bei Kameras, die indizieren würden ob eine Kamera nun Matrix-Infos von ihrem Standpunkt aus weiterleiten könnte oder nicht.

 

In dem Kapitel "Leben mit einem Kommlink" wird - wie der Name schon verdeutlich - darauf verwiesen, dass die Augmented Reality durch das Kommlink, und nicht etwa durch die Kontaktlinsen (visuelle Eingangs- und Wiedergabegerät) entsteht.

 

Das Kommlink ist schlussendlich das "Ding-in-der-Mitte" wo alle Strippen zusammengezogen werden. 

 

Und genauso funxt es bei allen anderen "visuellen Aufbereitungen" ebenfalls.

 

So funktionierte es bereits vor 20 Jahren, so funktioniert es heute ... und so wird es ebenfalls bei Shadowrun funktionieren.

Edited by Masaru
Link to comment
Share on other sites

Deine Gegenüberstellung AR - VR ist wirklich gut gelungen :).

Das ist auch mitunter auch "der" Grund im 5er System (gegenüber z.B. dem 3er) warum ein Hacker endlich mal mit vor Ort bei der Gruppe sein sollte. Wo es endlich mal Sinn macht.

Finde bisher vom Lesen auch das es die bester Matrix bis jetzt ist, auch wenn es noch aufgrund des fehlenden Matrix-Buches viele Lücken hat.

Nix war schlimmer als damals mit dem Deck entweder von "Zuhause" die Runner zu supporten oder nix könnend mitzulaufen um danach den Rest der Gruppe 1 Std. lang mir beim Würfeln zusehen zu lassen. ^_^

 

 

Wie die Kamera und das Commlink/Deck am Ende zusammenarbeiten ob die Daten davor oder danach schon gescannt und zusammengefasst werden ist für mich nicht so essententiell wichtig.

 

Ähm ... Du sprichst die ganze Zeit davon, dass das Kombinieren von phys. Aufnahme + Matrix-Informationen zu einer AR-Darstellung bereits in der Kamera stattfinden würde.

Da das bereits "heute" nicht so funktioniert, wird es auch 2075 nicht so funktionieren und für das weitere Verständnis ist es sehr wohl essentiell wichtig, wo die Aufbereitung stattfindet und welche Rolle diese oder jene Komponente darstellt.

 

AR = Die Matrix (bzw. eine Untermenge) als Überlagerung der realen Welt zu sehen. Dafür verwenden die Metamenschen 2075 einen Satz von Ausrüstung:

  1. ein Gerät die GPS-Position des Sehenden zu bestimmenden (mind. ein Kommlink)
  2. eine Möglichkeit die "Blickrichtung" zu bestimmen (Brille, Kontaktlinsen, Cyberaugen, das Gehirn mit DNI, etc. die ebenfalls GPS-Koordinaten und Höhen/Richtung-Sensoren, etc. haben)
  3. eine Datenquelle: die Matrix (Wifi machts erst möglich)
  4. ein Wiedergabe-Gerät (wieder z.B die Brille, Kontaktlinsen, Cyberaugen)
  5. die Fähigkeit die Ausgangs-Positionsdaten (GPS-Position + Blickrichtung) mit den Positionsdaten der Matrix-Entitäten (wie Icons von Geräten, Persona, AR-Programmen, etc.) zu verwerten ... hierfür braucht man "Rechenkapazitäten" => Terminal, Kommlink, Cyberdeck, etc.
  6. um somit schlussendlich AROs (etc.) so auf das Wiedergabe-Gerät zu projizieren, dass der Träger die AROs im dreidimensionalen Raum auch an der richtigen Stelle wieder wahrnimmt
 

>Die Kamera ohne AR-Link macht zwar schöne Bilder und nimmt nebenbei auch alles aus der Matrix auf... aber ohne das Upgrade sollte Sie nicht in der Lage sein die Daten so zu sammeln, dass ein Kommlink oder Computer da später noch ein vernünftiges AR Bild zusammen bekommt, wie in Augmented World beschrieben, da der Kamera eindeutig die Technik fehlt um ARO´s und co. visuell zu sehen, lokalisieren und entsprechend interpretieren.

 

Wenn bereits simple Kontaklinsen + Kommlink das können, dann kann eine "Kamera" das doch mindens auch ... oder meinst du etwa nicht?

 

Nach GRW gibt es kein AR-Link oder eine Feature-Abstufung bei Kameras, die indizieren würden ob eine Kamera nun Matrix-Infos von ihrem Standpunkt aus weiterleiten könnte oder nicht.

 

In dem Kapitel "Leben mit einem Kommlink" wird - wie der Name schon verdeutlich - darauf verwiesen, dass die Augmented Reality durch das Kommlink, und nicht etwa durch die Kontaktlinsen (visuelle Eingangs- und Wiedergabegerät) entsteht.

 

Das Kommlink ist schlussendlich das "Ding-in-der-Mitte" wo alle Strippen zusammengezogen werden. 

 

Und genauso funxt es bei allen anderen "visuellen Aufbereitungen" ebenfalls.

 

So funktionierte es bereits vor 20 Jahren, so funktioniert es heute ... und so wird es ebenfalls bei Shadowrun funktionieren.

 

Ok, jetzt hab ichs verstanden...

Wenn bereits simple Kontaklinsen + Kommlink das können, dann kann eine "Kamera" das doch mindens auch ... oder meinst du etwa nicht?

 

Nach GRW gibt es kein AR-Link oder eine Feature-Abstufung bei Kameras, die indizieren würden ob eine Kamera nun Matrix-Infos von ihrem Standpunkt aus weiterleiten könnte oder nicht.

 

Aber wozu ist dann genau der Image-Link (S.444 GRWe) gut der 1 Kapazität kostet und in alle Sichtgeräte eingebaut werden kann?

DNI kommt automatisch mit einem Image-Link laut GRW daher.

Andere Sichtgeräte wie Kameras müssen den Image-Link soweit ich das sehe erst kaufen (auch Kontaktlinsen) und in der Beschreibung ist es so beschrieben, dass man den Image-Link braucht um wirklich AR zu sehen und kein Gerät (auch Kontaktlinsen nicht) haben den Image-Link bereits eingebaut.

 

Kaufe ich den Image-Link nicht für meine Kontaktlinsen, sehe ich auch nicht die AR-Welt, auch wenn die Kontaktlinsen Daten aufnehmen und das Kommlink das sicherlich verarbeiten kann.

 

Wahrscheinlich ist gerade das Image-Link in einem Gerät die Technik zur "Positions" Bestimmung die das Commlink für die AR-Sicht braucht.

In menschlicher Cyberware und co. ist es schon in der DNI enthalten. Bei allem anderen halt optional.

 

Dann kann auch eine Drohne nicht nur VR oder Real(sofern Kamera vorhanden) gucken, sondern auch mit AR-Sicht. ^_^

Link to comment
Share on other sites

 Share

×
×
  • Create New...