Refine
Document Type
Conference Type
- Konferenzartikel (1)
Is part of the Bibliography
- yes (4) (remove)
Keywords
- Deep Neural Network (1)
- Handschrift (1)
- Handswritten Character Recognition (1)
- Künstliche Intelligenz (1)
- Lecture Tracking (1)
- Mobile Computing (1)
- Optische Zeichenerkennung (1)
- Physical Distancing (1)
- Robotik (1)
- SLAM (1)
Institute
Open Access
- Open Access (3)
- Bronze (1)
- Closed (1)
Im Rahmen dieser Arbeit wird ein „lowcost“ System für smarthome-Anwendungen vorgestellt. Die Steuerung der smarthome-Komponenten erfolgt durch einen Appliance-Controller auf Basis des FS20 Protokolls, wogegen die „Intelligenz“ des Systems durch eine mobile Anwendung (Android-OS) realisiertwird. Durch Auslagerung der Rechenleistung und der Benutzerschnittstelle auf das smartphone kann eine kostengünstige Alternative zur bestehenden Smarthome-Systemen aufgezeigt werden, die durch Einbindung externer Anwendungen leicht erweitert werden kann.
Es wird ein neuer Ansatz zur Bestimmung des Abstands zweier oder mehrerer Smartphones zueinander vorgestellt. Dabei wird die Position des jeweiligen Smartphones im Raum bzw. im Gelände bezüglich eines Referenzpunkts (Spatial Anchor Point) ermittelt. Über einen zentralen Server tauschen die Smartphones ihre Position relativ zum Referenzpunkt aus und können daraus die Abstände zueinander berechnen. Unterschreitet der Abstand zweier Smartphones einen Schwellwert (< 2 m), erfolgt eine entsprechende Signalisierung auf den Smartphones.
Es wird ein System zur Vorlesungsnachverfolgung (engl. Lecture Tracking) vorgestellt, das eine Kamera automatisch in Richtung des Vortragenden ausrichtet. Die kontinuierliche Positionsbestimmung der Kamera als auch die des Vortragenden erfolgt dabei durch Smartphones. Die Kamera und ein Smartphone sind an einen Roboter montiert, der als Schwenkeinheit dient. Das andere Smartphone trägt der Vortragende. Beide Smartphones können ihre Position im Raum bestimmen, sodass der erforderliche Drehwinkel berechnet und an den Roboter gesendet werden kann. Dieser führt dann die entsprechende Rotation durch, sodass der Vortragende immer in der Bildmitte zu sehen ist.
The automatic processing of handwritten forms remains a challenging task, wherein detection and subsequent classification of handwritten characters are essential steps. We describe a novel approach, in which both steps - detection and classification - are executed in one task through a deep neural network. Therefore, training data is not annotated by hand, but manufactured artificially from the underlying forms and yet existing datasets. It can be demonstrated that this single-task approach is superior in comparison to the state-of-the-art two task approach. The current study focuses on hand-written Latin letters and employs the EMNIST data set. However, limitations were identified with this data set, necessitating further customization. Finally, an overall recognition rate of 88.28% was attained on real data obtained from a written exam.