Skip to main content

5 Wege, die Microsoft Ihrem PC ermöglicht,

Vor zwei Jahren öffnete Microsoft mit Kinect for Windows buchstäblich die Augen des PCs. Und jetzt lehren Microsoft-Forscher es zu sehen.

Zu ​​lange saßen die PCs stumm und warteten nur darauf, dass die Benutzer auf ihre Tastaturen tippen oder eine Diskette einlegen. Dann wurden sie verbunden und griffen andere an, wenn die Benutzer befahlen. Auf der Silicon Valley Techfair von Microsoft in der vergangenen Woche zeigten Unternehmensforscher, wie sie den PC in eine neue Richtung führen und Bildverarbeitung mit einer neuen Unabhängigkeit kombinieren, damit sie den PC erkennen und interpretieren und diese Informationen in einem nützlichen Kontext darstellen können

Im Gegensatz zu Google oder anderen Unternehmen im Silicon Valley ist Microsoft traditionell eher eine öffentliche Universität als eine private Firma, die ein oder zwei Mal im Jahr ähnliche Forschungsausstellungen anbietet. Ja, es hält einen Teil seiner Forschung in der Nähe seiner Weste, insbesondere derjenigen, die sich später als Produkte herausbildet, wie sein digitaler Cortana-Assistent. Aber viele weitere werden der Öffentlichkeit zugänglich gemacht, sowohl um die technische Kompetenz des Unternehmens zu demonstrieren als auch mögliche Richtungen für das Unternehmen zu demonstrieren.

Insgesamt haben Microsoft-Forscher letzte Woche rund 18 Projekte gezeigt. Wir haben fünf ausgewählt, von denen vier Kinect in irgendeiner Weise enthalten. Und nein, wir glauben nicht, dass Microsoft mit jedem einen Heimlauf gemacht hat. Schließlich sind zukünftige Erfolge oft auf vergangenen Misserfolgen aufgebaut.

Ihre Webcam: der nächste Kinect

Wenn Sie unsere Berichterstattung über Microsofts Build aufmerksam gelesen haben, sollte diese Präsentation von Vivek Pradeep nicht so neu erscheinen: Microsoft Kinect für Windows-Chef Michael Mott hat PCWorld exklusiv erklärt, dass Microsoft aktiv daran arbeitet, herkömmliche Webcams als Tiefenkameras zu verwenden, wie Microsoft Kinect.

Im Video zeigen Pradeep und seine Kollegin, was sie MonoFusion nennen. Vom Konzept her ist es ziemlich einfach zu erklären: Mit einer unmodifizierten Webcam schwenken die beiden Forscher die Kamera über die Szene. Hinter den Kulissen interpretiert die Microsoft-Software das, was sie aus einer Tiefenperspektive sieht, indem sie 3D-Modelle der Objekte in einer Kinect-ähnlichen Weise erstellt. Die Software wendet dann eine Farbkarte oder Textur auf die Objekte an und transformiert im Wesentlichen das Video einer Sammlung von ausgestopften Tieren in Modelle der Tiere selbst.

Was MonoFusion sieht: der rohe Feed, eine Tiefenkarte (rechts) und texturierte 3D-Objekte

Was Microsoft erstellt hat, ist ein einfaches und leistungsstarkes SDK, das die Bilder aufnimmt und die 3D-Modelle in ein Spiel exportiert oder Augmented-Reality-Anwendung. Es hat sicherlich alle möglichen Möglichkeiten.

Schwebende Displays mit Gestenerkennung

Vor etwa einem Jahr enthüllte die Microsoft - Forscherin Jinha Lee einen spektakulären 3D - Desktop, der die Kombination aus polarisiertem Glas und einiger intelligenter Software zur Illusion eines Desktop mit Tiefe. Jetzt hat Microsoft-Forscher Tim Large eine zweite, physische "schwebende Anzeige" entwickelt, um eine etwas ähnliche Illusion zu liefern.

Die Idee, sagte Large, ist, eine herkömmliche 2D-Anzeige zu nehmen und eine Reihe von Plastikfolien darüber aufzutragen "Auf einen bestimmten Bereich des vom LCD-Monitor ausgestrahlten Lichts. Wie im folgenden Video gezeigt, projizieren die Filme einen zweiten Bildschirm, der über dem Monitor in der Luft "schwebt". Ein zweiter Forscher, Yutaka Tokuda, zeigte auch, dass es möglich ist, den zweiten Bildschirminhalt über das Hauptdisplay zu legen und Kinect zu verwenden, um die Illusion fein abzustimmen.

Sowohl Large als auch Tokuda deuteten an, dass digitale Kreationen entstehen sollten Durch das zweite Display ist es schwer zu sehen, was Microsoft hier zu erreichen hofft. Während das Überlagern von Informationen über Video in Nachrichtenberichten, Wettervorhersagen und Fußballspielen alltäglich geworden ist, kann es problematisch sein, einen PC-Bildschirm mit zu vielen überflüssigen Informationen zu überladen. Es scheint, dass beide mit der Idee des Fokus spielen und bestimmte Elemente für ein genaueres Hinsehen herausrufen.

Im März 2013 konzentrierte sich Microsoft darauf, zu zeigen, wie die riesigen Touchscreen-Displays von Perceptive Pixel genutzt werden können, um Mitarbeiter als gigantische Video-Whiteboards zu unterstützen. Bisher scheint die schwebende Anzeige kaum mehr als ein Kopfweh zu sein.

ViiBoard: kollaborative Annotation

Aber wenn Microsofts schwebendes Display wie eine Strecke aussieht, fühlt sich das ViiBoard wie eine Erweiterung des heutigen Arbeitsplatzes an. Das Konzept ist denkbar einfach: Durch die Kopplung eines Kinect-Sensors mit einem Perceptive Pixel (PPI) -Display werden Benutzer, die sich dem Whiteboard nähern, erkannt, und was auch immer sie schreiben, ist farbcodiert und gespeichert.

Die Demo von Yinpeng Cheng Ein leitender Forschungsingenieur für Microsoft (der sich auf sein Projekt als Vtouch bezieht) zeigt eine beeindruckende Menge an Glanz. Wenn sich der Benutzer beispielsweise der Anzeige nähert, wird er abgeblendet. Wenn Sie eine Hand nach oben winken, wird ein Benutzermenü angezeigt, das dem Benutzer folgt, wenn er sich zu beiden Seiten des Bildschirms bewegt. Und wenn ein Benutzer 10 Finger in einer "Tipp" -Geste zeigt, erscheint eine Tastatur. Selbst "Pens-Strokes" mit einem Finger oder Stift können farblich kodiert werden, je nachdem, welche Hand der Benutzer verwendet, und ein Squiggle kann schnell mit einer Geste gelöscht werden.

Cheng bezeichnet VTouch als Möglichkeit, das Whiteboard zu erstellen (oder was er ein "Touch-Board" nennt) wertvoller durch Zusammenarbeit. Und das war die Achse, auf der die kleine Anzahl von kostenlosen Office-Suiten von Drittanbietern begonnen hat, nach unten zu gehen und zusätzlich die Funktionalität von Microsoft Office zu duplizieren. Bisher war dies auf das Teilen von Dokumenten und die Zusammenarbeit beschränkt. Aber für Unternehmen, die häufig in Konferenzräumen für Meetings oder für gemeinsame Diskussionen zwischen Teilnehmern an verschiedenen Standorten zusammenkommen, könnte VTouch oder das ViiBoard auf zukünftige Verbesserungen in Skype oder PPI-spezifischen Apps hinweisen.

Echtzeitverfolgung von Tieren ( und you)

Während die Microsoft-Forschungsgruppe für Computational Ecology and Environmental Sciences Biologen und anderen Tierforschern bei der Verfolgung und dem Lernen von Tieren in freier Wildbahn half, könnte die von ihnen entwickelte Technologie sicherlich sowohl für die Strafverfolgung als auch für das Militär gelten.

Lucas Joppa, ein Wissenschaftler bei Microsoft Research, sagte, dass seine Forschung aus drei Elementen besteht: Zootracer, ein Software-Algorithmus zum Verfolgen von Objekten, die auf Video aufgenommen wurden; Mataki, ein 7-Gramm-GPS-fähiges Ortungsgerät; und eine unbemannte Drohne, die drahtlos kommunizieren und sogar an das, was das Mataki-Gerät trägt, wie einen Elefanten oder ein Auto anschließen kann.

Zotracer beginnt ziemlich dumm: Es kann Objekte unterscheiden, die auf Video oder über Kinect aufgenommen wurden , aber nur knapp. Joppa demonstrierte, wie der Benutzer den Algorithmus "lehren" musste, wie ein Objekt, wie eine Biene, identifiziert werden kann, wenn es sich zwischen Punkten bewegt. Aber indem Sie die Biene mehrmals pausieren und identifizieren. Der Sensor fing an, ihn zu verfolgen, während er sich auf dem Bildschirm bewegte.

Microsofts ungenannter Drohne.

Das ist in Ordnung, so wie die Bienen gehen. Um jedoch mehr über größere Tiere und ihre Umgebung zu lernen, entwickelte Microsoft Mataki, ein Sensor-Paket, das an ein Tier angebracht werden kann. Mit der kabellosen Nahbereichskommunikation kann Mataki sein Wissen auf einen anderen Sensor übertragen. Und wenn das nicht gut genug ist, hat Microsoft Drohnen entwickelt, die eindringen und die Daten erfassen können - oder mithilfe der GPS-Daten, die vom Sensor strömen, "einrasten" und einem bestimmten Mataki-Sensor aus der Luft folgen.

Die letztgenannte Fähigkeit sollte sicherlich einige Augenbrauen heben. Aber es ist vielleicht nicht überraschend, wenn Joppa ruhig von Amazon eingestellt wird. Einkaufs- oder Kurierdienste sollten genau wissen, wo Sie sich befinden, und kürzere Lieferzeiten um ein paar Minuten könnten effizientere Einkaufsdrohnen bedeuten - auch wenn sie momentan Science-Fiction sind.

Druckbare Elektronik

Der 3D-Druck wird immer mehr ubiquitär, aber dies erfordert eine Investition von Zeit, Geld und Material in einen 3D-Drucker und ein Substrat. Alternativ können "Subtraktions" -Drucker einen Materialblock wegätzen. In gewisser Weise haben wir Computerchips seit Jahrzehnten "3D-Printing" gemacht und Silizium mit Photolithographie weggeätzt. Ebenso ist das "Drucken" von Computerschaltungen unter Verwendung von Metallic-Tinte von einem Tintenstrahldrucker fast alltäglich geworden, bis zu dem Punkt, wo man es von zu Hause aus tun kann.

Microsoft-Forscher Steve Hodges (ab 1:13) zeigte jedoch eine interessante Kombination der beiden. Mit einer kleinen Anzahl von winzigen Leiterplatten mit eingebetteten Chips druckte Hodges die metallischen Verbindungsspuren mit einem modifizierten 100-Dollar-Tintenstrahldrucker auf ein Stück Fotopapier. Dann steckte er mit Hilfe von elektrisch leitfähigem doppelseitigem Klebeband von 3M die Mikro-PCBs einfach auf das Papier. Voila: ein schnell und schmutzig selbstgebrautes Produkt, wie ein Bewegungssensor.

Forscher verwendeten elektrisch leitfähiges doppelseitiges Klebeband, um Chips mit Fotopapier zu verbinden.

Einige Design-Geschäfte verwenden heute bereits 3D-Drucker, um Modelle von alle möglichen Dinge. Das Hinzufügen von billigen und einfachen Logikboards ist für eine langfristige Entwicklung nicht besonders praktisch, aber es scheint mindestens so nützlich zu sein wie ein 3D-Drucker für schnelles Prototyping.

Wir sind gerade dabei, zu verstehen, was es für einen PC bedeutet zu sehen, zu hören und zu verstehen. Bislang waren wir als Kultur gegenüber Eindringlingen in unser Privatleben sehr misstrauisch - selbst als wir darüber staunten, wie Kreationen wie digitale Assistenten dieses Leben verbessern können. Und während wir versuchen, die Bemühungen von Wearables wie Google Glass zu begrenzen, um Elemente unseres sozialen Lebens auszuspionieren, werden wir weiteren Zugang zum PC in unsere Häuser und Büros erlauben. Was sie tun werden, wenn sie ihre Augen öffnen und sich umsehen, ist jedoch noch im Labor - vorerst.

Update vom 28. April, um einen Videobericht vom IDG News Service aufzunehmen.