Jump to content

Decker/Rigger


Wandler
 Share

Recommended Posts

Image-Link ist glaube ich im deutschen "Bildverbindung".

 

Das ist das Teil, was es in Sichtgeräten wie Kontaktlinsen, Brillen, Cyberaugen, etc. erst ermöglicht Icons, Texte, Videos, ... AROs ... zu projizieren/einzublenden.

 

Wenn Du keine Bildverbindung in Deinen Kontaktlinsen hast, kannst Du auch keine AR sehen, genau.

(Und auch kein Videotelefonat führen, keine Nachrichten lesen, usw.)

 

 

...

 

...

 

Und nein nein nein die Drohne selber sieht nicht die AR ... sieht sieht - wenn überhaupt man es so bezeichnen kann - die Matrix, bzw die Daten!!!!  :blink:  :blink:  :blink:  :blink:

 

Eine Drohne nimmt z.B. Ihre Umgebung auch nicht via der "visuellen Kamera" war, die z.B. dem Wachmann die bewegten bunten Bilderchen auf den Überwachungsmonitor zaubert, sondern mittels Ihrer Sensoren (wozu die besagte Kamera als kleiner Teil dazu zählt). Und es gibt kein AR-Feature für "Sensoren"!!!

Sie nutzt aber unter gegebenen Umständen auch Informationen in Verbindung mit der Wifi-Matrix aus.

 

Nimm z.B. das Szenario, dass ein Hacker ein Icon "getagged" hat und der Drohne die phys. Komponente als "Ziel" gibt (vorrausgesetzt das Taggen erfolgte a.) über AR visuell, wodurch phys. Koordinaten vorhanden sind, oder b.) nachdem der phys. Standort des Icons getracked wurde, da der Pilot vermutlich selber zu blöd ist, "Trace Icon" durchzuführen ... und wie sollte er auch an die "Marken" rankommen ... also: vergessen wir das lieber ganz schnell wieder).

 

Die Drohne erhält also die Koordinaten und versucht an der Position mit ihren regulären Sensoren das "Ziel" auszumachen. 

 

Und dann bete, dass an der Stelle, wo gerade eben noch der Straßensamurai der Triaden stand, nicht jetzt die arme alte Oma aus dem Feinkostladen ein Päuschen macht.

 

 

Die AR ist etwas von/für uns blöde (Meta)Menschen geschaffenes, da wir auf das normal-sterbliche Sehen mit unseren Augen und unserem begrenzten Verstand zur Interpretation dessen was wir da sehen angewiesen sind ... ... ...  "beschränkt" sind.

 

Geräte hingegen brauchen die AR nicht. Sie können schließlich die Matrix bereits sehen *g* (mir fällt einfach nix besseres ein ... schau dir den Film "Matrix" an), bzw. in einer anderen Form/Interface mit ihr interagieren.

Edited by Masaru
Link to comment
Share on other sites

@Masaru:
Die AR ist natürlich für Metamenschen geschaffen worden, aber zu sagen das nur Informationen die auch Metamenschen erreicht als AR bezeichnet werden kann, halte ich für schlichtweg falsch.

AR steht bekanntlich für Augmented Reality - Erweiterte Realität.
Was bedeutet das: Die AR verknüpft reale Daten (meistens Optische) mit Virtuellen. Die Verknüpfung der Daten wird wiederum in einem geeigneten Medium dargestellt und weiter gefüttert.
Für einen Metamenschen eignet sich die Visuelle Wahrnehmung als Darstellungsplattform der durch AR verknüpften Daten, da wir nunmal sehr visuelle Wesen sind. Man kann aber auch Geräusche überlagern (besonders mit DNI) und anderes.
Man könnte aber auch einen Bildschirm hinstellen, und anstatt einen Metamenschen darauf blicken zu lassen, eine Drohne davor stellen, welche dann das AR-Bild sieht und im Anschluss die optischen Daten interpretieren muss - so wie es ein Megamensch auch mit seinem Hirn macht.

Wenn die Drohne nun in der freien Wildbahn unterwegs ist, mit seinen Sensoren (unter anderem vermutlich auch eine Kamera - aber welche Sensoren sind eigentlich nebensächlich) einen Wachmann lokalisiert und gleichzeitig mittels ihrer Verbindung zu Matrix auch sein Kommlink, seine Waffe, etc. findet, kann sie dann das Komlink und die Waffe dem Wachmann zuweisen, bzw. feststellen das die Lokalisierung von beidem Übereinstimmt? 
Wenn ja, dann erfüllt die Drohne perfekt das was man für AR "Sicht" benötigt.
Das die genau Mechanik im Hintergrund eine etwas andere ist spielt dabei in meinen Augen keine wirkliche Rolle, und hier eine weitere Form der Wahrnehmung einzuführen welche das gleiche tut wie AR aber nicht AR ist halte ich schon für Haarspalterei.
Wenn man aber sagt, nein die Drohne kann das nicht lokalisieren, dann frage ich mich nach de Grund dahinter, und ob ich das behebnkönnte in dem ich ihr eine Brille aufsetze und ein Kommlink umschnalle (skurrile Idee, ich weiß...).

  • Like 1
Link to comment
Share on other sites

Deine Stellungnahme stimmst zu über 90% mit meiner überein ... aber nochmal für's Protokoll: es gibt keine AR "Sicht" bei Drohnen. 

 

Dieses Wort, oder die dahinter assozierte Begrifflichkeit, ist schlicht weg falsch, und führt zu Verwirrungen was die Funktionsweise angeht.

Nichtmal für Metamenschen ist sie im Grunde genommen zutreffend und wird auch kein einziges mal im GRW erwähnt  <_<.

 

 

 

Haarspaltereien, Erbsenzählen und Im-Detail-verlieren wäre ja begründert .... wenn ... ja wenn es eben nicht zu Missverständnissen führen würde.

 

Aber es hatte.

 

Ok, jetzt hab ichs verstanden...

 

Folglich hat es nichts mit Haarspalterei zu tun.

Edited by Masaru
Link to comment
Share on other sites

 

 

Ok, jetzt hab ichs verstanden...

 

Folglich hat es nichts mit Haarspalterei zu tun.

 

Ich hab jetzt verstanden wie du die AR siehst, was sich aber nicht ganz mit meiner Sicht der Dinge deckt.

Ich glaube die AR von heute ist nicht so ganz die AR, die die macher von SR so im Hinterkopf haben.

 

 

@Masaru:

Die AR ist natürlich für Metamenschen geschaffen worden, aber zu sagen das nur Informationen die auch Metamenschen erreicht als AR bezeichnet werden kann, halte ich für schlichtweg falsch.

AR steht bekanntlich für Augmented Reality - Erweiterte Realität.

Was bedeutet das: Die AR verknüpft reale Daten (meistens Optische) mit Virtuellen. Die Verknüpfung der Daten wird wiederum in einem geeigneten Medium dargestellt und weiter gefüttert.

Für einen Metamenschen eignet sich die Visuelle Wahrnehmung als Darstellungsplattform der durch AR verknüpften Daten, da wir nunmal sehr visuelle Wesen sind. Man kann aber auch Geräusche überlagern (besonders mit DNI) und anderes.

Man könnte aber auch einen Bildschirm hinstellen, und anstatt einen Metamenschen darauf blicken zu lassen, eine Drohne davor stellen, welche dann das AR-Bild sieht und im Anschluss die optischen Daten interpretieren muss - so wie es ein Megamensch auch mit seinem Hirn macht.

Wenn die Drohne nun in der freien Wildbahn unterwegs ist, mit seinen Sensoren (unter anderem vermutlich auch eine Kamera - aber welche Sensoren sind eigentlich nebensächlich) einen Wachmann lokalisiert und gleichzeitig mittels ihrer Verbindung zu Matrix auch sein Kommlink, seine Waffe, etc. findet, kann sie dann das Komlink und die Waffe dem Wachmann zuweisen, bzw. feststellen das die Lokalisierung von beidem Übereinstimmt? 

Wenn ja, dann erfüllt die Drohne perfekt das was man für AR "Sicht" benötigt.

Das die genau Mechanik im Hintergrund eine etwas andere ist spielt dabei in meinen Augen keine wirkliche Rolle, und hier eine weitere Form der Wahrnehmung einzuführen welche das gleiche tut wie AR aber nicht AR ist halte ich schon für Haarspalterei.

Wenn man aber sagt, nein die Drohne kann das nicht lokalisieren, dann frage ich mich nach de Grund dahinter, und ob ich das behebnkönnte in dem ich ihr eine Brille aufsetze und ein Kommlink umschnalle (skurrile Idee, ich weiß...).

Das trifft auch in etwa meine Sicht der Dinge, wie man Drohnen und Wahrnehmung behandelt.

Die Drohne hat einen "Gehirn"(der Prozessor) mit dem es Wahrnehmungen alle Art aus den Sensoren interpretieren kann.

Im Grunde ist eine Drohne meist in etwa so Klug wie ein Hund, abhängig vom Autopilot und sieht nur das, was man ihr in den Sensoren zur Verfügung gestellt hat...

Und aus meiner Sicht, kann eine Drohne kein AR-Sehen, wenn sie keine Kamera bekommt, die für 25 Yen mit einer Bildverbindung ausgestattet wurde.

Der Text in der Bildverbindung (Man brauch sie um die AR wirklich zu sehen) und die Tatsache wie Unterschiedlich die Wahrnehmung ist in AR und VR deuten ziemlich darauf hin.

Masaru schrieb am 22 Okt 2014 - 15:01:

Und nein nein nein die Drohne selber sieht nicht die AR ... sieht sieht - wenn überhaupt man es so bezeichnen kann - die Matrix, bzw die Daten!!!!       

 

Eine Drohne nimmt z.B. Ihre Umgebung auch nicht via der "visuellen Kamera" war, die z.B. dem Wachmann die bewegten bunten Bilderchen auf den Überwachungsmonitor zaubert, sondern mittels Ihrer Sensoren (wozu die besagte Kamera als kleiner Teil dazu zählt). Und es gibt kein AR-Feature für "Sensoren"!!!

Sie nutzt aber unter gegebenen Umständen auch Informationen in Verbindung mit der Wifi-Matrix aus.

 

Nimm z.B. das Szenario, dass ein Hacker ein Icon "getagged" hat und der Drohne die phys. Komponente als "Ziel" gibt (vorrausgesetzt das Taggen erfolgte a.) über AR visuell, wodurch phys. Koordinaten vorhanden sind, oder b.) nachdem der phys. Standort des Icons getracked wurde, da der Pilot vermutlich selber zu blöd ist, "Trace Icon" durchzuführen ... und wie sollte er auch an die "Marken" rankommen ... also: vergessen wir das lieber ganz schnell wieder).

 

Die Drohne erhält also die Koordinaten und versucht an der Position mit ihren regulären Sensoren das "Ziel" auszumachen.

 

Und dann bete, dass an der Stelle, wo gerade eben noch der Straßensamurai der Triaden stand, nicht jetzt die arme alte Oma aus dem Feinkostladen ein Päuschen macht.

 

Die AR ist etwas von/für uns blöde (Meta)Menschen geschaffenes, da wir auf das normal-sterbliche Sehen mit unseren Augen und unserem begrenzten Verstand zur Interpretation dessen was wir da sehen angewiesen sind ... ... ...  "beschränkt" sind.

 

Geräte hingegen brauchen die AR nicht. Sie können schließlich die Matrix bereits sehen *g* (mir fällt einfach nix besseres ein ... schau dir den Film "Matrix" an), bzw. in einer anderen Form/Interface mit ihr interagieren.

 

Soweit ich das sehe und gelesen habe, bewegt sich ein "Tag" auf einem Ziel mit diesem mit.

In AR-Taggen und der Drohne dann sagen greife Tag A an, ist die sinnvollste Art um Drohnen Autonom mit Befehlen zu füttern.

Das hat einfach den Hintergrund das Drohnen recht schnell "überfordert" sind. Wenn man jetzt den Befehl gibt:"Schieß auf den Straßenpunk mit dem Irokesen" dann bekommt man recht flott wohl eine "Error-Meldung", da die Drohen die Informationen nicht "verarbeiten" kann.

Vor allem wenn man eine schlechte Aussprache hat und die Drohne anstatt dem Märtyrer einfach den dahinter parkenden Mehrtürer mit einem Kugelhagel bedeckt. :P

 

Deine Lösung macht Drohnen extrem schwer einsetzbar, denn anscheinend Feuern sie anscheinend nur auf "Koordinatenpunkte", anstatt auf "angesagte Ziele" wie Person A die diese dann auch "verfolgen" kann.

Das deckt sich meiner Meinung nach überhautp nicht mit der Beschreibung für Drohnen und den Kampf mir Ihnen.

 

Ich glaube bei Shadowrun passt es eher, wenn man davon ausgeht, dass Drohnen ähnlich wie der "Terminator" mit Ihren Sensoren sehen/hören und alles interpretieren.

Finde ich persönlich auch cooler... und natürlich läuft das untere "Bild/Wahrnemung" in Einsen und Nullen  durch die Drohne und nicht durch die Windungen eines Gehirns.

 

http://lemonsblack.com/wp-content/uploads/2012/02/terminator_vision_02.jpg

 

Was du der Drohne also nicht kaufst, kann sie nicht sehen.

 

 

Am Ende diskutieren wir hier glaube ich gerade, ob man beim Einbau von Sensoren (Da muss man ja alles einzeln kaufen)

für Kameras nun eine Bildverbindung für Kapazität 1 dazukaufen muss oder nicht.  ;)

Das kann ja jeder machen wie er will.

Aber fakt ist nunmal, dass AR-Sicht die Icon´s von Gegenständen die man sieht automatisch an den "richtigen" Fleck in der Realität heftet im krassen Gegensatz zur reinen VR-Wahrnehmung.

Das Waffen-Icon ist bei der Waffe die man sieht, das Commlink-Icon ist direkt auf der Person, usw.

Solange das Ziel nicht auf "Schleichfahrt" geht muss man nicht mal mehr das Ziel im Blickfeld danach haben, ganz ähnlich als ob ein "Track-Icon" gelungen ist.

 

Um jetzt nochmal dann den Bogen zurück zum Thread zu ziehen.

Wenn ich also eine kleine Dragonfly mit einer Kamera die AR-Sicht fähig ist  (ob die AR-Sicht automatisch drinnen ist oder per Bildverbindung eingebaut werden muss kann jeder selber sehen) losschicke, damit sie Sie für mich um die Ecke nach einer Wachdrohne späht.

Dann sehe ich bei Sichtkontakt der Drohne als Rigger auch das "Drohnen-ICON".

Ich muss dann also nicht in VR erstmal alle gleichen Drohnen in 100 Metern Umgebung durchscannen und "Track-Icon" machen.

Nun kann ich selbst (sofern ich ein Deck selber besitze) oder der Gruppen-Hacker anfangen das Drohnen-ICON aus der Sicherheit heraus zu bricken, ohne selbst um die Ecke geguckt zu haben. ;)

Für "zarte" Hacker sind also so kleine Beobachtungsdrohnen nicht zu verachten und helfen durchaus die Lebenserwartung um ein vielfaches zu verlängern und die Kombo Hacker/Rigger ist nicht zu verachten, wenn der Hacker die Drohnen als "zusätliche" AR-Augen benutzt. ^_^

 

PS: Kamera´s wie die in Drohnen kann man auch in VR sich ansehen B)

Link to comment
Share on other sites

Wie immer auch technisch es gelöst .... auf Deine Frage:

  • "Sehe ich bei Sichtkontakt der Drohne als Rigger auch das Drohnen-Icon": Ja, siehst Du.

 

Auf die Frage:

  • "Und kann ich selbst (sofern ich ein Deck selber besitze) oder der Gruppen-Hacker anfangen das Drohnen-ICON aus der Sicherheit heraus zu bricken, ohne selbst um die Ecke geguckt zu haben": Jein

Du (oder der Gruppen-Hacker) muss das Icon durch seine eigene Persona des Cyberdecks selber lokalisiert haben (Matrixwahrnehmung bzw. 100m Umkreis zu Deiner Deck-Antenne, wenn Du in der AR hacken willst) um die Drohne zu hacken.

 

Und selbst wenn Du als Rigger in die Drohne "eingesprungen" wärest, dann kannst Du dies nur tun, wenn Du mit Deinem Cyberdeck (als Gerät-Quelle für Deine Persona) in der VR warst als Du in die Drohne gesprungen bist. Nicht mit deiner RCC, denn dieser fehlen ja die Matrixattribute zum hacken.

 

Und bevor irgendjemand auf die Idee kommt: Man kann immer nur eine Persona haben, und Geräte lassen sich nicht in Reihe Schalten um eine Super-Persona zu kreieren!

 

Mit der Aufnahme der Drohne (+ Drohnen-Icon  <_<) könnte man dem Decker aber ein "Merkmal" geben, damit dieser das Geräte-Icon der Drohne mit einer eigenen Matrixwahrnehmungsprobe leichter aufspüren kann und sich nicht erst durch dutzende Drohnen-Icons navigieren muss.

Edited by Masaru
Link to comment
Share on other sites

Hm, auch wenn ich gamistisch die Einschätzung von Masaru im letzten Post nicht schlecht finde, frage ich mich nach wie vor nach der Begründung.
Bauen wir uns nun mal ein AR System auf.
Decker Slowclick hat eine Brille, mit integrierter Kamera, Verbindung zum Deck und Bildverbindung. Dann kann die Brille mir AR darstellen (wenn ich mich richtig erinnere ist spannender Weise nicht einmal eine Kamera nötig). Sie macht das, in dem sie die Icons über die realen Objekte legt.
Slowclick hat aber natürlich auch DNI, da er als vernünftiger Hacker eine Datenbuchse hat. Darum verwendet er lieber den direkten Input über DNI als die Bildverbindung der Brille.
Er kann also nun auch die Augen zu machen, und kann dann nach wie vor zumindest die AR Überlagerungen sehen - vielleicht auch mit der ganzen Rebweltlichen Optik, da die Brille ja auch eine Kamera hat.
Nun nimmt er die Brille ab, und schwenkt sie herum.

Meiner Ansicht nach, sollte Slowclick jetzt weiterhin die AR wahrnehmen können - und zwar im Blickwinkel der Brille.
Nun gibt er die Brille seinem Runnerkollegen Bulletcatcher der damit ein paar Meter weg geht - nach wie vor kein problem für Slowclick. 

Problem bleibt jedoch, das er nur Icons sehen kann, die weniger als 100m entfernt sind - und hier würde ich entfernt vom Deck annehmen.
Es würde also meiner Ansicht nach funktionieren, dass Slowclick hinter der Ecke kauert und über die Brille die er Bulletcatcher gegeben hat über AR hackt. Bullencatcher macht dabei das was er am beten kann und stellt sich einfach auf den Weg und schaut dem Gegner ins Gesicht.
Nun ist aber Slowclick das nächste mal nicht mit Bulletcatcher sondern mit ScaredCat unterwegs, und der weigert sich die Brille für Slowclick zu tragen, darum legt sich Slowclick eine Drohne zu die genau das gleiche kann wie die Brille.
 

Zwischen sehen durch die Drohne (auch AR) und die Drohne sein liegt in meinen Augen noch ein Unterschied, aber ob Slowclick für diesen Stunt dann einen Riggeradapter benötigt halte ich für durchaus Diskutierbar...

Link to comment
Share on other sites

Du gehst von einer Fehlannahme aus, die Du Dir aber bereits selbst beantwortet hast:

 

... wenn ich mich richtig erinnere ist spannender Weise nicht einmal eine Kamera nötig ...

... das er nur Icons sehen kann, die weniger als 100m entfernt sind - und hier würde ich entfernt vom Deck annehmen ...

 

Die AR-Visualisierung wird immer vom Persona-Gerät aufgebaut. Das kann sein:

  • Kommlink
  • Cyberdeck
  • RCC

Die Brille und die Kamera sind völlig wurscht. Und auch die (autonome, nicht gerigg-gesprungene) Drohne ist wie die anderen Dinge auch: ein eigenes Geräte mit eigenen eigenen Icon.

 

Wichtig ist für's hacken die Persona und ihr aufenthaltsort und was man darüber direkt 1:1 in der Matrix wahrnehmen kann. Nicht was man über einen weiteren Kanal weitergeleitet bekommen hat.

 

Kamera, Drohne, etc. pp sind alles eigenständige Geräte mit "eigene Antenne".

 

Die AR jedoch wird über die Antenne des Persona-Gerätes bestimmt und aufgebaut (auch wenn man damit dann in die Tiefen der Matrix wiederrum "surfen" kann).

Zwar könnte man in einem ARO die Drohnen-Kamera-Informationen (oder die Aufnahme von Bulletchatchers Brillenkamera) in einem Art Sichtfenster einblenden lassen ... aber das ist keine direkte Verbindung zur der Matrix an dem jeweiligen Ort  :mellow:!

 

Die Matrix-Regeln sind so einfach:

  • du kannst nur das Hacken, was Du mit Deiner Persona
  • 1. wahrgenommen
    und
  • 2. mit Marken beballert hast

Es gibt kein Remoting, man muss seine Persona dorthin bewegen, wo man etwas "hacken" möchte.

Edited by Masaru
Link to comment
Share on other sites

Ok, lass es mich anders versuchen:
Wir haben einen langen Gang, sagen wir 98m lang. am Ende steht ein Wachmann, am anderen Ende wieder Slowclick.

Slowclick kann nun den Wachmann sehr bequem über AR hacken - und muss sich physich dazu nicht von seinem Standort weg bewegen.

Nachdem Slowclick aber in einem Neo-Hollywood-Japananwesen ist, sind die Innenwände aus Papier. Und auf der anderen Seite der Papierwand steht 2m von Slowclick entfernt ein Wachmann. 

Slowclick müsste nun in die VR gehen und alle Icons in 100m Radius scannen und mittels Icon aufspüren lokalisieren, um den Wachmann hinter der Papierwand hacken zu können.

Wenn nun aber Slowclick eine Kamera hat, im Nebenraum in dem sich der Wachmann aufhält, und ihn darauf sieht, dann weiß er zumindest das er da ist. 
Mit AR würde er auch automatisch die Geräte des Wachmannes sehen, und somit sofort hacken können.
Da aber ein rein Optisches Hindernis zwischen ihm und dem Wachmann ist, greift die AR nicht, und er kann das nicht?
Wenn das Kommlink in einer Hosentasche ist, geht es ja trotzdem, weil... nun, geht eben. Aber hinter einer Papierwand nicht mehr, auch wenn bekannt ist, dass der Wachmann dort ist, und man seine genaue Position mittels Kamera überwacht?

Und zu deinem Beispiel was man hacken kann:
Etwas mit Marken beballern ist in meinen Augen ein integraler Bestandteil des Hacking-Vorganges, und daher ist es nicht vor dem hacken nötig.

Link to comment
Share on other sites

Ich verstehe nicht, warum man erneut mit einer Matrix-Wahrnehmung das ICON suchen sollte.

Ich hab über die Kamera/Brille, etc... das jeweilige ICON direkt vor mir eingeblendet bekommen( Also auch die Daten die ich brauche um es im Grid "anzusteuern" müssten jetzt in meinem Commlink/Deck zugrunde liegen) und kann mit ihm deshalb auch interagieren (Befehle senden).

 

Um es mal ganz krass zu formulieren...

Wenn ich von einem Host in eine Drohne springe oder durch Ihre Kameras schaue, die gerade auf einer Mondstation ist.

Dann kann ich alles sehen und auch die ICONS der anderen Geräte. Aber wenn ich jetzt auf die Idee kommen würde da etwas zu hacken, dann würde ich die Verbindung von meinem Deck aus zum Mond ziehen müssen.

 

@Zoldor:

Ich glaube Kleidung, andere Personen, kleinere Fahrzeuge und "Papier" hält die AR-Sicht jetzt nicht unbedingt auf... Sonst würden Commlinks in einer Tasche ja nicht sichtbar sein und auch sonst viele RIFD-Werbungen garnicht in der AR-Sicht auftauchen.

 

Zumindest kann man so eine bessere Trennlinie zu dem ziehen was man sieht und was nicht.

Link to comment
Share on other sites

Ihr beiden habt definitiv die Matrix, Personas, Icons, Geräte, AR und VR nicht verstanden ... bitte lest Euch nochmal das Matrix-Kapitel durch, ja?

 

Ich geb's an der Stelle auf ... möge ein willensstärkerer es gerne weiter versuchen.

Edited by Masaru
Link to comment
Share on other sites

Ihr beiden habt definitiv die Matrix, Personas, Icons, Geräte, AR und VR nicht verstanden ... bitte lest Euch nochmal das Matrix-Kapitel durch, ja?

 

Ich geb's an der Stelle auf ... möge ein willensstärkerer es gerne weiter versuchen.

Haha. genau das habe ich mir ein paar Posts weiter oben gedacht ;)

Link to comment
Share on other sites

@S(ka)ven: mir ist bewusst, das Gewand hier nichts aufhält, ich wollte mit dieser Formulierung kritisches Denken im Bezug auf die Fragestellung fördern - was mir aber anscheinend nicht geglückt ist.

 

@Masaru: Ich hatte das Matrixkapitel bereits gelesen, und es ist auch das Kapitel mit dem ich mich bislang am meisten beschäftigt habe. Natürlich kenne ich nicht jeden Satz auswendig, und kann von daher auch oftmals falsch liegen. Darum, und auch weil ich mir nichts nachsagen lassen möchte, habe ich deinen Rat befolgt und das Kapitel nochmals gelesen - bzw. die relevanteren Stellen zu der konkreten Problemstellung, wie ich sie Verstanden habe. 
Nachdem ich meine Ansicht nun noch mit Zitaten untermauert sehe, versuche ich sie nochmals möglichst klar und unmissverständlich darzustellen.

 

Also:

GRW Deutsch, S.219 schreibt:

Es [das Kommlink] kommuniziert andauernd mit anderen Geräten und Hosts rings um sie und meldet Position- und Bewegungsdaten. Die anderen Geräte und Hosts senden Daten zurück, die melden, wer sonst noch unterwegs ist, [...] bekommen Sie all diese Informationen in einem Mini-Headup-Display als Überlagerung eines Bildes ihrer Umgebung. Aber gehen wir davon aus, dass Sie bereits in unserem Jahrzehnt angekommen sind. Dann interagieren sie mit der Welt natürlich nicht per Bildschirm. Sie haben Brille, [...] die Daten direkt in Ihr Sichtfeld projiziert.

Was lese ich hier heraus.
Das Kommlink hat die Position- und Bewegungsdaten aller Icons in der Umgebung.
Um auf mein Beispiel mit Slowclick im Papiergang zurück zu kommen: Das Kommlink weiß sowohl vom Wachmann am Ende des Ganges, als auch von dem hinter der Papierwand (um präziser zu sein: es weiß von den Icons, welche die beiden mit haben). Nur bei der Üblichen Darstellungsweise werden die Icons der Geräte des Gang-Wachmannes als gesammeltes PAN-Icon dargestellt, während die Icons des Wand-Wachmannes ausgeblendet werden, da keine visuelle Verbindung zu ihm besteht und die Informationen daher als momentan irrelevant abgespeichert werden.

Mir geht es darum, ob diese Ausblendung für die Bequemlichkeit des Nutzers umgangen werden kann. Ich sage dazu ja.

Eine der möglichen Varianten ist es eine Kamera (ebenfalls mit Positions- und Bewegungsdaten von sich selbst) in die nähe zu bringen, und sich in diesem Bild die Daten wie in der regulären AR-Sicht anzeigen zu lassen. Dies ist in meinen Augen eine schöne, stimmige Variante.
Eine andere wäre, das Slowclick seinen AR-Filter runter stellt und somit via "Wall-hack" die Icons hinter der Papierwand sieht - aber eben mit allen möglichen anderen Icons ebenfalls überflutet wird. 
Oder dass er sich die Icons seiner Umgebung in Vogelperspektive ansieht. 
Ich finde all diese Varianten durchaus machbar, vor allem nachdem die AR mehr kann, als "nur" Icons und AROs an ihre "realweltliche" Position im Blickfeld des Benutzers legen. Dafür spricht auch GRW, Deutsch, S.226:

Sie können die Matrix sehen wie sie möchten: etwa in dem Sie ein virtuelles Fenster oder einen Bildschirm benutzen und die Matrix wie durch eine Kamera betrachten, oder in dem Sie ihr Sichtfeld mit Zusatzinformationen anreichern.

 

Das von dir (vor ein paar Posts) gebrachte Argument, man müsse zu den Icons mit seiner Persona hin, widerspricht mir nicht, da (Ebenfalls S.226)

Ihre Persona kann sich mit diesem Blick auf die Matrix überall hinbewegen.

 

Warum man nun überhaupt den Weg über die Drohne benötigt?
Weil man als Decker dann sieht ob das Icon nun das Komlink des Laborangestellten oder das des Wachmannes ist, die beide hinter der Papierwand stehen.

 

Ich hoffe ich war nun diesmal verständlich.
Ich meine nicht, dass man durch die Drohne hackt, oder damit seine Reichweite vergrößert, sondern dass man sich mithilfe einer Drohne zusatzinformationen zu den vorhanden Icons verschafft, in dem sie Fleischweltlichen Dingen zugeordnet werden.
 

Und die Verknüpfung der Visuellen Daten der Drohne mit den Virtuellen des Decks ergibt eine AR-Sicht. Gleich wie es im ersten Zitat erwähnt wird, nur dass man "durch die Augen der Drohne blickt"

  • Like 1
Link to comment
Share on other sites

@S(ka)ven: mir ist bewusst, das Gewand hier nichts aufhält, ich wollte mit dieser Formulierung kritisches Denken im Bezug auf die Fragestellung fördern - was mir aber anscheinend nicht geglückt ist.

 

@Masaru: Ich hatte das Matrixkapitel bereits gelesen, und es ist auch das Kapitel mit dem ich mich bislang am meisten beschäftigt habe. Natürlich kenne ich nicht jeden Satz auswendig, und kann von daher auch oftmals falsch liegen. Darum, und auch weil ich mir nichts nachsagen lassen möchte, habe ich deinen Rat befolgt und das Kapitel nochmals gelesen - bzw. die relevanteren Stellen zu der konkreten Problemstellung, wie ich sie Verstanden habe. 

Nachdem ich meine Ansicht nun noch mit Zitaten untermauert sehe, versuche ich sie nochmals möglichst klar und unmissverständlich darzustellen.

 

Also:

GRW Deutsch, S.219 schreibt:

Es [das Kommlink] kommuniziert andauernd mit anderen Geräten und Hosts rings um sie und meldet Position- und Bewegungsdaten. Die anderen Geräte und Hosts senden Daten zurück, die melden, wer sonst noch unterwegs ist, [...] bekommen Sie all diese Informationen in einem Mini-Headup-Display als Überlagerung eines Bildes ihrer Umgebung. Aber gehen wir davon aus, dass Sie bereits in unserem Jahrzehnt angekommen sind. Dann interagieren sie mit der Welt natürlich nicht per Bildschirm. Sie haben Brille, [...] die Daten direkt in Ihr Sichtfeld projiziert.

Was lese ich hier heraus.

Das Kommlink hat die Position- und Bewegungsdaten aller Icons in der Umgebung.

Um auf mein Beispiel mit Slowclick im Papiergang zurück zu kommen: Das Kommlink weiß sowohl vom Wachmann am Ende des Ganges, als auch von dem hinter der Papierwand (um präziser zu sein: es weiß von den Icons, welche die beiden mit haben). Nur bei der Üblichen Darstellungsweise werden die Icons der Geräte des Gang-Wachmannes als gesammeltes PAN-Icon dargestellt, während die Icons des Wand-Wachmannes ausgeblendet werden, da keine visuelle Verbindung zu ihm besteht und die Informationen daher als momentan irrelevant abgespeichert werden.

 

Mir geht es darum, ob diese Ausblendung für die Bequemlichkeit des Nutzers umgangen werden kann. Ich sage dazu ja.

Eine der möglichen Varianten ist es eine Kamera (ebenfalls mit Positions- und Bewegungsdaten von sich selbst) in die nähe zu bringen, und sich in diesem Bild die Daten wie in der regulären AR-Sicht anzeigen zu lassen. Dies ist in meinen Augen eine schöne, stimmige Variante.

Eine andere wäre, das Slowclick seinen AR-Filter runter stellt und somit via "Wall-hack" die Icons hinter der Papierwand sieht - aber eben mit allen möglichen anderen Icons ebenfalls überflutet wird. 

Oder dass er sich die Icons seiner Umgebung in Vogelperspektive ansieht. 

Ich finde all diese Varianten durchaus machbar, vor allem nachdem die AR mehr kann, als "nur" Icons und AROs an ihre "realweltliche" Position im Blickfeld des Benutzers legen. Dafür spricht auch GRW, Deutsch, S.226:

>

Sie können die Matrix sehen wie sie möchten: etwa in dem Sie ein virtuelles Fenster oder einen Bildschirm benutzen und die Matrix wie durch eine Kamera betrachten, oder in dem Sie ihr Sichtfeld mit Zusatzinformationen anreichern.

 

Das von dir (vor ein paar Posts) gebrachte Argument, man müsse zu den Icons mit seiner Persona hin, widerspricht mir nicht, da (Ebenfalls S.226)

Ihre Persona kann sich mit diesem Blick auf die Matrix überall hinbewegen.

 

Warum man nun überhaupt den Weg über die Drohne benötigt?

Weil man als Decker dann sieht ob das Icon nun das Komlink des Laborangestellten oder das des Wachmannes ist, die beide hinter der Papierwand stehen.

 

Ich hoffe ich war nun diesmal verständlich.

Ich meine nicht, dass man durch die Drohne hackt, oder damit seine Reichweite vergrößert, sondern dass man sich mithilfe einer Drohne zusatzinformationen zu den vorhanden Icons verschafft, in dem sie Fleischweltlichen Dingen zugeordnet werden.

 

Und die Verknüpfung der Visuellen Daten der Drohne mit den Virtuellen des Decks ergibt eine AR-Sicht. Gleich wie es im ersten Zitat erwähnt wird, nur dass man "durch die Augen der Drohne blickt"

 

Hab das Kapitel jetzt auch noch 2 mal durchgelesen und ich verstehe das die Sache auch so funktioniert.

 

Zusätzlich gebe ich noch als Argument, dass wenn man in reiner VR unterwegs ist und darüber die Matrix wahrnimmt Distanzen "relativ" sind.

Das Commlink zeigt nur an, welche ICONs in 100 Metern sind, aber nicht wo. Diese Informationen scheinen da wohl zu fehlen... denn für eine genaue Lokalisierung muss ich Marken plazieren und "Track Icon" durchführen.

 

In der AR-Sicht fällt diese Notwendigkeit in allen Beispielen und im Regeltext weg... Ich sehe per AR ein ICON, also kann ich damit interagieren (Hacking on the Fly, Matrix Wahrnehmung, Datenspike, usw.). Super Beispiel ist da der "Ganger" der den Hacker mit seiner Waffe bedroht und der Hacker die Waffe übers Waffen-ICON per AR ins Ziel nimmt und mit Datenspikes in einen Briefbeschwerer verwandelt.

 

Also muss irgendwas den "Unterschied" ausmachen zwischen AR und VR Wahrnehmung... Das Commlink alleine kann es nicht sein, denn in rein VR hat es ja wie festgestellt keine Positionsdaten von ICON´s. Somit muss die Visuelle Componente (Bildverbindung/DNI) in Verbindung mit Signalen und ARO´s in den Geräten dazu führen, dass man ein ICON auch genau da sieht, wo das Item gerade liegt oder getragen wird.

 

Wenn ich jetzt also mit meiner Persona in einer Drohne sitze, deren Sensoren AR-Fähig sind. Dann kann die Drohne mir doch ein Bild mit AR-Daten von der Location zeigen oder nicht?

Also sehe ich ICON´s und auf diese ICON´s kann man jetzt natürlich auch zu dem ICON "bewegen" und dort "einfluss" nehmen, denn man hat das ICON gesehen und weiß ja jetzt welches ICON man "bearbeiten" möchte.

 

 

Die Matrix-Regeln sind so einfach:

  • du kannst nur das Hacken, was Du mit Deiner Persona
  • 1. wahrgenommen

    und

  • 2. mit Marken beballert hast

Es gibt kein Remoting, man muss seine Persona dorthin bewegen, wo man etwas "hacken" möchte.

 

Punkt 2 finde ich ein bisschen fragwürdig... impliziert es bei mir die annahme, dass du gerade sagst, dass man nur ein ICON Hacken kann, wenn man es bereits gehackt(mit Marken versehen) hat, aber mit marken beballern über Hacking on the Fly und Brute Force ist doch bereits hacken.

 

Falls nicht, weder Zoldor noch ich behaupten, dass man ein ICON mit Matrixbefehlen bombadieren darf, bevor man Hacking on the Fly oder Brute Force gemacht wurde.

Es geht lediglich darum, wann sehe ich ein ICON und wann kann ich damit interagieren.

 

Die Regeln sind wirklich einfach:

Zu 1. Wahrgenommen über die AR-Sicht der Drohne.

Zu 2. erstmal das Ziel-ICON ranholen und dann Hacking on the Fly.

 

 

In meinem Verständnis von SR5 bedeutet das auch, dass es z.B. in öffentlichen High-Security bereichen Kameras mit AR-Sicht gibt, die A) gucken ob jemand sein Commlink illegal auf Schleichfahrt hat oder eine Illegale Waffe bei sich führt und B) Gleich herausfilter wer das in der Masse ist und dann dem Drohnenrigger/Decker oder Wachmann bescheid sagt, diesen mal genauer unter die Lupe zu nehmen und gleich mal ein Bußgeld draufsetzt oder verhaftet.

Link to comment
Share on other sites

Dass AR-Sicht in Kameras bei Security vorhanden ist, steht auch so in einer der Geschichten des GRW drin.

Da fällt dem Wachhabenen auf, dass die ICONS´s die eine Kamera (im Zeitschleife/Standbild) anzeigt, derzeit ganz woanders in der Anlage unterwegs sind.

 

Welche Geschichte ist das (Seite?)?

 

 

 

Ansonsten... die Beschreibung der AR/VR ist imho nicht konsistent. Während im ersten Teil des Matrix Kapitels noch der Eindruck erweckt wird, das man in der AR eigentlich hauptsächlich ARO`s usw. sieht (im Gegensatz zur VR - hier sieht man die richtige Matrix mit ICONs), wird dieser Eindruck später revidiert. So kann man auch in der AR Hosts betreten und Geräte hacken (Wobei es in der AR sicher schwierig ist, einen am Himmel schwebenden Host zu betreten...).

 

Und das wahrnehmen der AR erfolgt in der Tat entweder über Brillen mit Bildverbindung, DNI (Datenbuchse usw.) oder Retinamodifikation/Cyberauge mit Bildverbindung. Oder über den Bildschirm/Projektion des Kommlink/Decks (GRW s. 219).

 

Und Sichtverstärkungen wie Bildverbindun können expliziet in Kameras eingebaut werden (GRW s. 447/448).

 

Soweit bin ich damit einverstanden, dass zb. eine Überwachungskamera mit einer Bildverbindung ausgestattet wird. Aber was heißt das jetzt im folgenden?

 

1. Am anderen Ende der Kamera sitzt ein Wachmann, der die Anzeige der Kamera auf einem Bildschirm interpretiert und entsprechend reagiert.

 

2. Die Kamera ist Teil von Sensoren einer Drohne. Wahrnehmung und Interpretation erfolgen über den Autopiloten (anstatt über den Wachmann).

 

 

3. Was kann man jetzt in der AR alles sehen? Imho alles, was man auch in der VR sehen kann. ICONS & AROs, Personas usw.... und da die Darstellung die Realität überlagert, ist eine physische Zuordnung auch deutlich leichter. Allerdings hat man hier imho trozt allem die Problematik des Sichtfeldes. Also Sichtfeld der Kamera, der Kommlink Kamera oder der Augen.

 

Und man darf natürlich nicht vergessen... ICONs können auf Schleichfahrt sein... Geräte WiFi Offline... dann wirds schwierig überhaupt was zu sehen.

 

 

Was das hacken über Drohnensensoren (Bildverbindung) angeht... das muß ich mir noch mal ausführlich durchlesen. Spontan würde ich das jedenfalls verneinen.

Edited by Corpheus
Link to comment
Share on other sites

 Share

×
×
  • Create New...