Die Welt um uns herum wahrnehmen | MIT-Nachrichten

„Sensorik ist überall um Sie herum“, sagte Brian W. Anthony, stellvertretender Direktor von MIT.nano, bei Ambient Sensing, einem halbtägigen Symposium, das im Mai vom MIT.nano Immersion Lab veranstaltet wurde. Bei der Veranstaltung, an der MIT-Lehrkräfte und Forscher aus verschiedenen Disziplinen teilnahmen, wurden Sensortechnologien hervorgehoben, die überall eingesetzt werden, von unterhalb der Erdoberfläche bis hoch in die Exosphäre.

Brent Minchew, Assistenzprofessor am Department of Earth, Atmospheric and Planetary Sciences (EAPS), eröffnete das Symposium mit einem Vortrag über den Einsatz von Fernerkundung zum Verständnis des Flusses, der Verformung und des Bruchs von Gletschereis und wie dieser zum Meer beiträgt Pegelanstieg. „Es gibt diese fantastische Skalentrennung“, sagte Minchew. „Wir nutzen Beobachtungen von Satelliten, die 700 Kilometer über der Oberfläche fliegen, und nutzen die dort gesammelten Daten, um daraus abzuleiten, was auf atomarer Ebene im Eis passiert, was großartig ist.“

Minchews Gruppe arbeitet mit anderen Forschern am MIT daran, eine Drohne zu bauen, die drei bis vier Monate lang über die Polarregionen fliegen und damit kritische Lücken in der Erdbeobachtung schließen kann. „Es wird uns diese radikale Verbesserung gegenüber der aktuellen Technologie und unserer Beobachtungskapazität verschaffen.“

Der EAPS-Postdoktorand Qindan Zhu nutzt ebenfalls Satelliten und kombiniert maschinelles Lernen mit Beobachtungsdaten aus der Fernerkundung, um die Ozonverschmutzung über nordamerikanischen Städten zu untersuchen. Zhu erklärte, dass die Kontrolle der Stickoxidemissionen auf der Grundlage von Daten aus einem Jahrzehnt der wirksamste Weg sei, die Ozonverschmutzung in diesen städtischen Gebieten zu regulieren. Sowohl Zhus als auch Minchews Präsentationen betonten die wichtige Rolle, die Umgebungssensoren dabei spielen, mehr über das sich verändernde Klima der Erde zu erfahren.

Lesen Sie auch  Wohin gehen die Zinsen? : Planet Money : -

Beim Übergang von der Luft zum Meer sprach Michael Benjamin, leitender Forschungswissenschaftler am Fachbereich Maschinenbau, über seine Arbeit an Roboter-Schiffsfahrzeugen zur Erkundung und Überwachung des Ozeans und der Meeresumwelt an der Küste. „Roboterplattformen haben als Fernsensoren die Fähigkeit, Orte zu erkennen, die für bemannte Schiffe zu gefährlich, langweilig oder kostspielig sind“, erklärte Benjamin. Im Marine Autonomy Lab des MIT entwerfen Forscher Unterwasser-Oberflächenroboter, autonome Segelschiffe und einen amphibischen Surfzonenroboter.

„Sensorik ist ein großer Teil der Meeresrobotik“, sagte Benjamin. „Ohne Sensoren könnten Roboter nicht wissen, wo sie sich befinden, sie könnten versteckten Dingen nicht ausweichen, sie könnten keine Informationen sammeln.“

Fadel Adib, außerordentlicher Professor im Programm für Medienkunst und -wissenschaften und am Fachbereich Elektrotechnik und Informatik (EECS), arbeitet ebenfalls an der Sensorik unter Wasser. „Die Batterielebensdauer von Unterwassersensoren ist äußerst begrenzt“, erklärt Adib. „Es ist sehr schwierig, die Batterie eines Ozeansensors wieder aufzuladen, wenn er einmal eingesetzt ist.“

Seine Forschungsgruppe baute einen Unterwassersensor, der akustische Signale reflektiert, anstatt eigene Signale erzeugen zu müssen, was viel weniger Strom benötigt. Sie haben außerdem eine batterielose, kabellose Unterwasserkamera entwickelt, die kontinuierlich und über einen langen Zeitraum Bilder aufnehmen kann. Adib sprach über mögliche Anwendungen der Unterwasser-Umgebungsmessung – Klimastudien, Entdeckung neuer Meeresarten, Überwachung von Aquakulturfarmen zur Unterstützung der Ernährungssicherheit und sogar außerhalb des Ozeans, im Weltraum. „Wie Sie sich vorstellen können, ist es noch schwieriger, die Batterie eines Sensors auszutauschen, wenn Sie ihn auf eine Weltraummission geschickt haben“, sagte er.

Ursprünglich in der Welt der Unterwassersensorik tätig, wendet James Kinsey, CEO von Humatics, sein Wissen über Meeressensoren auf zwei verschiedene Märkte an: öffentliche Verkehrsmittel und Automobilherstellung. „All diese Sensordaten im Ozean – der Wert liegt darin, dass man sie geolokalisieren kann“, erklärte Kinsey. „Je präziser und genauer Sie das wissen, desto mehr können Sie mit dem Malen dieses 3D-Raums beginnen.“ Kinsey sprach über die millimetergenaue Automatisierung von Fahrzeugmontagelinien, die den Einsatz von Roboterarmen ermöglicht. Für U-Bahnen betonte er die Vorteile von Sensorsystemen, um die Position eines Zuges besser zu kennen und die Sicherheit von Fahrgästen und Arbeitern durch ein erhöhtes Situationsbewusstsein zu verbessern. „Präzise Positionierung verändert die Welt“, sagte er.

Lesen Sie auch  Der Siegelhüter erklärt, er wolle sich gegen „Schande“ wehren

An der Schnittstelle von Elektrotechnik, Kommunikation und Bildgebung stellte EECS-Assoziierter Professor Ruonan Han seine Forschung zur Sensorik durch Halbleiterchips vor, die bei Terahertz-Frequenzen arbeiten. Mithilfe dieser Terahertz-Chips hat Hans Forschungsgruppe eine 3D-Bildgebung mit hoher Winkelauflösung ohne mechanisches Scannen demonstriert. Sie arbeiten an elektronischen Knotenpunkten für die Gaserkennung, präzises Timing und die Miniaturisierung von Tags und Sensoren.

In zwei von Anthony geleiteten Frage-und-Antwort-Runden diskutierten die Referenten, wie Sensortechnologien mit der Welt interagieren, und hoben Herausforderungen beim Hardware-Design, der Herstellung, der Verpackung, der Kostenreduzierung und der Produktion im großen Maßstab hervor. Beim Thema Datenvisualisierung waren sie sich einig, dass Hardware- und Softwaretechnologien erforderlich sind, um schneller und umfassender mit Daten zu interagieren und diese zu verarbeiten.

Ambient Sensing wurde live vom MIT.nano Immersion Lab übertragen. Dieser einzigartige Forschungsraum im dritten Stock des MIT.nano bietet eine Umgebung, um das Physische mit dem Digitalen zu verbinden – Daten zu visualisieren, Prototypen fortschrittlicher Tools für Augmented und Virtual Reality (AR/VR) zu entwickeln und neue Software- und Hardwarekonzepte zu entwickeln für immersive Erlebnisse.

Um die aktuelle Arbeit im Immersion Lab vorzustellen, nahm der pensionierte MIT-Fechttrainer Robert Hupp zusammen mit Anthony und dem Forschungswissenschaftler Praneeth Namburi an einer Live-Demonstration der immersiven Athletentrainingstechnologie teil. Mithilfe drahtloser Sensoren am Fechtdegen gepaart mit OptiTrack-Bewegungserfassungssensoren entlang der Raumumrandung trat ein unerfahrener Fechter, der einen Bewegungserfassungsanzug und ein AR-Headset trug, einem virtuellen Gegner gegenüber, während Namburi die Haltung des Fechters auf einem Computer verfolgte. Mit diesen Echtzeitdaten konnte Hupp dem Fechter zeigen, wie er seine Bewegungen verbessern kann.

„Diese Veranstaltung zeigte die Fähigkeiten des Immersion Lab und die Arbeit, die am gesamten MIT im Bereich Sensorik – einschließlich Sensoren, Datenanalyse und Datenvisualisierung – geleistet wird“, sagt Anthony. „Viele unserer Redner sprachen über Zusammenarbeit und die Bedeutung der Zusammenführung mehrerer Bereiche, um die Umgebungserfassung und Datenerfassung voranzutreiben und so gesellschaftliche Herausforderungen zu lösen. Ich freue mich darauf, weitere Forscher aus Wissenschaft und Industrie im Immersion Lab willkommen zu heißen, um ihre Arbeit mit unseren fortschrittlichen Hardware- und Softwaretechnologien zu unterstützen.“

Lesen Sie auch  Die Hilfe für Kiew findet (endlich) im US-Senat statt

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.