Refine
Document Type
- Conference Proceeding (8)
- Article (reviewed) (7)
- Patent (4)
- Contribution to a Periodical (2)
- Letter to Editor (2)
- Article (unreviewed) (2)
- Moving Images (1)
Is part of the Bibliography
- yes (26)
Keywords
- Augmented Reality (3)
- Kamera (3)
- prosthesis (2)
- visual control (2)
- 3D-print (1)
- AR (1)
- AR glasses (1)
- Augmented reality (1)
- Augmented-reality glasses (1)
- Convolutional Neural Network (1)
Institute
- Fakultät Elektrotechnik und Informationstechnik (E+I) (bis 03/2019) (15)
- Fakultät Elektrotechnik, Medizintechnik und Informatik (EMI) (ab 04/2019) (10)
- Fakultät Maschinenbau und Verfahrenstechnik (M+V) (1)
- IUAS - Institute for Unmanned Aerial Systems (1)
- POIM - Peter Osypka Institute of Medical Engineering (ab 21.10.2020) (1)
Open Access
- Open Access (11)
- Closed Access (9)
Nicht-invasives, nicht-ionisierendes funktionelles Neuroimaging mit räumlich und zeitlich hochauflösender Elektroenzephalographie oder Echtzeit-Naheinfrarotspektroskopie in Kombination mit modernen Robotorsystemen ist ein entscheidender Entwicklungsschritt auf dem Gebiet der Neuroprothetik und Brain-Machine-Interfaces. In der Medizintechnik an der Hochschule Offenburg wird hierzu geforscht.
Die Erfindung betrifft ein Verfahren zur Kalibration einer Kamera (110) unter Nutzung eines Bildschirmes (120), wobei der Bildschirm (120) eine Menge von Bildpunkten (122) aufweist und die Kamera (110) eine Vielzahl von Pixeln (112) zur Darstellung des Bildes nutzt. Das Verfahren umfasst die folgenden Schritten (a) Darstellen zumindest eines Bildwertes (BW) in zumindest einem Bildpunkt (122) des Bildschirms (120) basierend auf einer Bildwertzuweisung; (b) Erfassen des zumindest einen Bildwertes (BW) durch einen Pixel (112a) der Kamera (110); und (c) Bestimmen der Position des zumindest einen Bildpunktes (122) auf dem Bildschirm (120) basierend auf dem zumindest einen erfassten Bildwert (BW) und der Bildwertzuweisung. Das Verfahren umfasst weiter ein Verschieben des Bildschirmes (120) oder der Kamera (110) in eine Richtung um einen Betrag, sodass der zumindest eine Bildpunkt (122) eine andere Entfernung zu dem Pixel (112a) der Kamera (110) aufweist als vor dem Verschieben, und ein Wiederholen zumindest der Schritte (b) und (c) für den verschobenen Bildschirm (120i). Die Kamera (110) umfasst einen variablen Fokus beim Verschieben des Bildschirmes (120) relativ zu der Kamera (110), und das Verfahren umfasst weiter ein Abspeichern einer Zuordnung bezüglich des Pixels (112) und der Positionen des zumindest einen Bildpunktes (122) für verschiedene verschobene Bildschirmpositionen (120i).
Die Erfindung betrifft ein Verfahren zur Kalibration einer Kamera (110) unter Nutzung eines Bildschirmes (120), wobei der Bildschirm (120) eine Menge von Bildpunkten (122) aufweist und die Kamera (110) eine Vielzahl von Pixeln (112) zur Darstellung des Bildes nutzt. Das Verfahren umfasst die folgenden Schritten (a) Darstellen zumindest eines Bildwertes (BW) in zumindest einem Bildpunkt (122) des Bildschirms (120) basierend auf einer Bildwertzuweisung; (b) Erfassen des zumindest einen Bildwertes (BW) durch einen Pixel (112a) der Kamera (110); und (c) Bestimmen der Position des zumindest einen Bildpunktes (122) auf dem Bildschirm (120) basierend auf dem zumindest einen erfassten Bildwert (BW) und der Bildwertzuweisung.
Hybrid SPECT/US
(2014)
Die Verwendung von Kameras als Messmittel für medizinische Anwendungen setzt deren präzise Kalibrierung voraus. Gängige Verfahren modellieren die Abbildungseigenschaften einer Kamera mittels perspektivischer Projektion und parametrisierter Funktionen zur Beschreibung von Linsenverzerrung. In den Randbereichen des Kamerabildes sind diese Modelle oft unzureichend. Außerdem bedingt die Verwendung starrer Kalibriermuster eine in der Regel kleine Anzahl an nicht gleichmäßig verteilten Punktkorrespondenzen zur Bestimmung der Modellparameter. In der vorliegenden Arbeit wird ein vollkommen neues und nicht auf Modellen basierendes Kalibrierverfahren vorgestellt, bei dem jedes Kamerapixel unabhängig von jedem anderen kalibriert wird.
This work describes a non-parametric camera-based method for the calibration of Optical See-Through Glasses (OSTG). Existing works model the optical system through perspective projection and parametric functions. In the border areas of the displays such models are often inadequate. Moreover, rigid calibration patterns, that produce only a small amount of non-equidistant point correspondences, are used. In order to overcome these disadvantages every single display pixel is calibrated individually. The error prone user interaction is avoided by using cameras placed behind the displays of the OSTG. The displays show a shifting pattern that is used to calculate the pixels' locations. A camera mounted rigidly on the OSTG is used to find the relations between the system components. The obtained results show better accuracies than in previous works and prove that a second calibration step for user adaptation is necessary for high accuracy applications.
This work describes a camera-based method for the calibration of optical See-Through Glasses (STGs). A new calibration technique is introduced for calibrating every single display pixel of the STGs in order to overcome the disadvantages of a parametric model. A non-parametric model compared to the parametric one has the advantage that it can also map arbitrary distortions. The new generation of STGs using waveguide-based displays [5] will have higher arbitrary distortions due to the characteristics of their optics. First tests show better accuracies than in previous works. By using cameras which are placed behind the displays of the STGs, no error prone user interaction is necessary. It is shown that a high accuracy tracking device is not necessary for a good calibration. A camera mounted rigidly on the STGs is used to find the relations between the system components. Furthermore, this work elaborates on the necessity of a second subsequent calibration step which adapts the STGs to a specific user. First tests prove the theory that this subsequent step is necessary.
MITK-OpenIGTLink for combining open-source toolkits in real-time computer-assisted interventions
(2016)
PURPOSE:
Due to rapid developments in the research areas of medical imaging, medical image processing and robotics, computer-assisted interventions (CAI) are becoming an integral part of modern patient care. From a software engineering point of view, these systems are highly complex and research can benefit greatly from reusing software components. This is supported by a number of open-source toolkits for medical imaging and CAI such as the medical imaging interaction toolkit (MITK), the public software library for ultrasound imaging research (PLUS) and 3D Slicer. An independent inter-toolkit communication such as the open image-guided therapy link (OpenIGTLink) can be used to combine the advantages of these toolkits and enable an easier realization of a clinical CAI workflow.
METHODS:
MITK-OpenIGTLink is presented as a network interface within MITK that allows easy to use, asynchronous two-way messaging between MITK and clinical devices or other toolkits. Performance and interoperability tests with MITK-OpenIGTLink were carried out considering the whole CAI workflow from data acquisition over processing to visualization.
RESULTS:
We present how MITK-OpenIGTLink can be applied in different usage scenarios. In performance tests, tracking data were transmitted with a frame rate of up to 1000 Hz and a latency of 2.81 ms. Transmission of images with typical ultrasound (US) and greyscale high-definition (HD) resolutions of [Formula: see text] and [Formula: see text] is possible at up to 512 and 128 Hz, respectively.
CONCLUSION:
With the integration of OpenIGTLink into MITK, this protocol is now supported by all established open-source toolkits in the field. This eases interoperability between MITK and toolkits such as PLUS or 3D Slicer and facilitates cross-toolkit research collaborations. MITK and its submodule MITK-OpenIGTLink are provided open source under a BSD-style licence ( http://mitk.org )