Abschlussarbeiten

Hier finden Sie die Abschlussarbeiten der Studierenden unserer Abteilung.

Entwicklung und Evaluation eines maschinellen Lernverfahrens für die Rauschreduktion von cepstralen Koeffizienten
Sebastian Pietsch

Bachelorarbeit im Studiengang Hörtechnik und Audiologie
Betreut durch Prof. Dr.-Ing. Jörg Bitzer und Christian Rollwage
Eingereicht am 7. Februar 2019

Artifizielle neuronale Netzwerke haben durch die gestiegene Leistungsfähigkeit von Computern in den letzten Jahren immens an Bedeutung gewonnen. In der Audiosignalverarbeitung werden sie bereits mit vielversprechenden Ergebnissen zur Lösung verschiedener Problemstellungen, wie der Reduktion von Störeinflüssen, der Sprechererkennung und -lokalisation eingesetzt. Viele der Publikationen zeigen, dass machine learning Algorithmen besser abschneiden als deterministische Algorithmen, um Störeinflüsse in Daten zu reduzieren. In dieser Arbeit wurde ein Denoising Autoencoder- Netzwerk entwickelt und evaluiert, dass anders als bisherige Ansätze aus der Literatur, Störeinflüsse auf Sprache direkt in der cepstralen Domäne (MFCCs) reduziert. Zur Netzwerkentwicklung wurden verschiedene Netzwerkmerkmale und Trainingsparameter auf die Reduktion des Rauschfehlers hin getestet. Die hervorgegangene Struktur wurde anschließend unter verschiedenen Rauschkonditionen anhand der Eignung der entrauschten MFCCs für die Zuordnung von Sprechern bewertet. Als Sprachkorpus diente die Global Phone Datenbank. Für die Störeinflüsse wurde weißes, Babble und Rauschen aus dem Innenraum eines langsam fahrenden PKWs (Car Rauschen) aus dem NOISEX-92 Datensatz genutzt. In dieser Arbeit wird gezeigt, dass die Reduktion von Störeinflüssen auf Sprache in der cepstralen Domäne mit einem neuronalen Netzwerk möglich ist. Mit der entwickelten Struktur kann der Fehler bei der Sprecherzuordnung für den SNR-Bereich von -5 bis 20 dB deutlich verringert werden, wenn es sich um weißes oder Car Rauschen als Störeinfluss handelt. Die Einflüsse durch Babel Rauschen ließen sich nicht reduzieren. Die Ergebnisse zeigen eine bessere Leistungsfähigkeit des Netzwerks, wenn es unter separaten Rauschkonditionen trainiert wurde. Es stellt einen geeigneten Startpunkt für weiterführende Experimente dar.

Artificial neural networks have become increasingly important in recent years due to the raising performance of computers. They are used already to solve effectively various issues in audio signal processing, such as the reduction of noise, speaker recognition and localization. Todays publications are showing, that machine learning approaches are performing better in many of those tasks than deterministic algorithms. In this work, a denoising Autoencoder network was developed and evaluated, which, unlike previous approaches in literature, reduces noise to speech in the cepstral domain (MFCCs) directly. Various network parameters and training conditions were tested for the reduction of the noise error in network development. Furthermore, the resulting structure was evaluated in different noise conditions, based on the eligibility of the denoised MFCCs for speaker assignment. As speech database the Global Phone corpus was used. As interferences white, babel and noise recorded inside a slowly driving car from the NOISEX-92 dataset was taken. This work shows that it is possible to reduce noise in speech in the cepstral domain by a neural network. The developed structure is capable to significantly decrease white disturbance in a SNR range from -5 to 20 dB. Also car noise could be reduced in a lower range from -5 to 5 dB dB SNR. The effects of babble noise could not be reduced. The results show that the network performs better when trained under separate noise conditions than under combined ones. The network, nevertheless, represents a suitable starting point for further experiments.

AUDIOVISUELLE ERWEITERUNG DES SUBJEKTIVEN HÖRANSTRENGUNGSMESSVERFAHRENS ACALES
Saskia Ibelings

Bachelorarbeit im Studiengang Hörtechnik und Audiologie
Betreut durch Prof. Dr. Inga Holube und Melanie Krüger, M. Sc.
Eingereicht am 6. Februar 2019

Bekannt ist, dass das Ablesen des Mundbildes, besonders in akustisch schwierigen Situationen, zu einer Verbesserung des Sprachverstehens führt. Da das Sprachverstehen positiv beeinflusst wird, wurde vermutet, dass audiovisuelle Integration auch einen Einfluss auf die subjektive Höranstren-gung hat. Zudem wurde vermutet, dass Normal- und Schwerhörende sich hinsichtlich der Höran-strengung unterscheiden. Zur Untersuchung dieser Vermutungen wurde die subjektive Höranstren-gung bei Darbietung rein akustischer Stimuli im Vergleich zu audiovisuellen Stimuli ermittelt. Für die Messung wurde die adaptive Skalierungsmethode ACALES (Adaptive CAtegorical Listening Effort Scaling, Krueger et al., 2017a), welche um die Wiedergabe von Videos erweitert wurde, verwendet. In beiden Konditionen (akustisch und audiovisuell) wurden drei Sätze des Oldenburger Satztests (OLSA), aufgenommen mit einer weiblichen Sprecherin, als Stimuli genutzt. Gleichzeitig wurden verschiedene Hintergrundgeräusche dargeboten. Bei der audiovisuellen Kondition wurden zusätzlich die entsprechenden Mundbewegungen der Sprecherin auf einem Bildschirm präsentiert. Die Messungen wurden mit 15 jungen Normalhörenden und zehn älteren Schwerhörenden durch-geführt. Neben der Messung der Höranstrengung in beiden Konditionen wurden für die Normal-hörenden zusätzlich die intra- und interindividuelle Standardabweichung sowie die Test-Retest-Reliabilität bestimmt. Die Ergebnisse zeigten eine Abhängigkeit der subjektiven Höranstrengung vom Maskierer sowie eine Abnahme der Höranstrengung in der audiovisuellen Kondition. Zudem unterschieden sich die Ergebnisse der Probandengruppen signifikant voneinander. Die intra- und interindividuelle Standardabweichung war in der audiovisuellen Kondition tendenziell höher als in der akustischen. Für die Test-Retest-Reliabilität wurde der Intraklassen-Korrelationskoeffizient bestimmt. Insgesamt zeigte sich eine gute Reliabilität. Folglich ist zu sagen, dass audiovisuelle Integration die Höranstrengung positiv beeinflusst. Zudem ermöglicht das Verfahren die Erfassung individueller Unterschiede in der Bewertung der subjektiv wahrgenommenen Höranstrengung.

It is already known that lip reading, especially in acoustically difficult situations, leads to an im-provement in speech intelligibility. Since speech intelligibility is positively influenced, it was as-sumed that audiovisual integration also has an influence on the subjectively perceived listening effort. Furthermore, it was assumed that normal-hearing and hearing-impaired people differ in their listening effort. In order to investigate these assumptions, the subjective listening effort in the presentation of purely acoustic stimuli compared to audiovisual stimuli was determined. For the measurement, the adaptive scaling method ACALES (Adaptive CAtegorical Listening Effort Scal-ing, Krueger et al., 2017a) was used, which was enhanced to play videos. In both conditions (acous-tical and audiovisual), three sentences of the Oldenburg sentence test (OLSA), recorded with a female speaker, were used as stimuli. At the same time, different background noises were pre-sented. In the audiovisual condition, the corresponding mouth movements of the speaker were pre-sented on a screen. The measurements were performed with 15 young normal-hearing and ten older hearing-impaired people. In addition to comparing the listening effort for both groups of subjects in acoustic and audiovisual condition, the results of the groups of subjects were also compared. Additionally, the measurement of listenng effort in both conditions, the intra- and interindividual standard deviation and test-retest reliability were determined for normal-hearing subjects. The re-sults showed a dependence of the subjective listening effort on the masker as well as a decrease of the listening effort in the audiovisual condition. Besides, the results of the test groups differed significantly from each other. The intra- and inter-individual standard deviation tended to be higher in the audiovisual condition than in the acoustic condition. Furthermore, the standard deviations in the audiovisual condition tended to be higher than in the acoustic condition. The intra-class corre-lation coefficient was calculated for test-retest reliability. Overall, the reliability was good. Conse-quently, audiovisual integration has a positive influence on listening effort. Moreover, the method allows the recording of individual differences in the evaluation of subjectively perceived listening effort.

Akustische Lokalisation von Alarmsignalen im Straßenverkehr
Matthes Ohlenbusch

Bachelorarbeit im Studiengang Assistive Technologien
Betreut durch Prof. Dr.-Ing. Jörg Bitzer und Christian Rollwage
Eingereicht am 4. Februar 2019

Die Präsenz von Alarmsirenen ist ein besonderes Ereignis, dessen Bewältigung für autonome und assistive Systeme zur Teilnahme am Straßenverkehr eine große Herausforderung darstellt. Um solchen Systemen zu ermöglichen, Situationen mit Einsatzfahrzeugen zu erkennen und korrekt einzuordnen, ist das Wissen um die Position oder die Richtung, aus der das Signal einfällt, notwendig. In der digitalen Signalverarbeitung sind bereits Verfahren zur akustischen Quellenlokalisation bekannt, die in dieser Arbeit auf ihre Eignung für die Sirenenlokalisation hin untersucht werden. Zusätzlich erfolgt die Anpassung von Ansätzen maschinellen Lernens auf die Anwendung zur Sirenenlokalisation. Zur signalspezifischen Vor- und Nachverarbeitung werden zudem verschiedene Maßnahmen untersucht. Lokalisationsverfahren werden im Anschluss mit geeigneten Vor- und Nachverarbeitungsverfahren gegeneinander in theoretischen und realen Störgeräuschumgebungen in einem direkten Vergleich analysiert. Weiteren Experimenten dienen der Untersuchung vom Einfluss des Quellabstands und der Lokalisation bewegter Einsatzfahrzeuge. Resultat der Versuche ist, dass sich vor allem der diagonal entladene Beamformer und die Steered Response Power für die Lokalisation von Alarmsirenen im Straßenverkehr eignen.

For assistive and autonomous systems developed to assist in traffic-related processes, the presence of sirens poses a considerable challenge. In order to enable such systems to correctly recognize and categorize the appearance of emergency vehicles, knowledge of the siren signals’ position or direction of arrival is necessary. The field of digital array processing has access to several methods for acoustic source localization, some of which are evaluated in this work regarding their applicability for siren localization. In addition, machine learning approaches for sound source localization are adapted to siren localization. For signal-specific pre- and postprocessing, a range of steps are considered. Localization methods are then directly compared in theoretical and real noise scenarios, with selected pre- and postprocessing steps applied to them. Robustness against source distance is analyzed and an experiment regarding moving siren localization with emergency vehicles is concluded. Results show the superiority of the diagonal unloading beamformer and the steered response power algorithm when compared with other siren localization methods.

Eignung von Referenzverglasung zur Beurteilung von Prüfständen für die Bestimmung der Schalldämmung von Verglasungen
Malte Brüers

Bachelorarbeit im Studiengang Hörtechnik und Audiologie
Betreut durch Prof. Dr.-Ing. M. Blau und Dr.-Ing. V. Wittstock
Eingereicht am 31. Januar 2019

Um die Schalldämmung von Verglasungen zu prüfen, werden sie in Prüfständen gemessen. Diese Prüfstände müssen bestimmte Anforderungen erfüllen und werden durch Messungen von Referenzverglasungen geprüft. Referenzverglasungen haben einen in der DIN EN ISO 10140 festgelegten Aufbau und eine, in Form eines frequenzabhängigen Toleranzbereiches, bekannte Schalldämmung. In dieser Arbeit wurde überprüft, ob alle nominell identischen Referenzverglasungen die gleiche Schalldämmung liefern und für die Beurteilung von Prüfständen geeignet sind. Zu diesem Zweck wurden Verglasungen aus unterschiedlichen Produktionschargen gemessen, und ihre Schalldämmung wurde verglichen. Die bestimmten Unsicherheiten wurden mit denen aus der DIN EN ISO 10140 und DIN EN ISO 12999-1 verglichen. Durch die Ergebnisse konnte festgestellt werden, dass die Verglasungen sehr unterschiedliche Schalldämmungen besitzen. Des weiteren wurden Messungen durchgeführt, um die Ursache für diese Unterschiede zu untersuchen. Diese Ursachenforschung ergab, dass die Verglasungen unterschiedliche Übertragungseigenschaften besitzen. Aufgrund der großen Unterschiede der Schalldämmung sowie der großen Unsicherheiten sind die Verglasungen zur Beurteilung von Prüfständen nach DIN EN ISO 10140 ungeeignet.

To test the sound insulation of glazing, they are measured in test facilities. These test facilities must meet certain requirements and are tested by measurements of reference glazings. They have a structure defined in DIN EN ISO 10140 and a known sound insulation, which is defined as a frequency-dependent tolerance range. In this work, it has been checked whether all nominally identical reference glazings provide the same sound insulation and are suitable for the evaluation of test facilities. For this purpose, glazings from different production batches have been measured and their sound insulation has been compared. The specific uncertainties have been compared with those from DIN EN ISO 10140 and DIN EN ISO 12999-1. The results showed that the glazings have very different sound insulation. Furthermore, measurements were made to investigate the cause of these differences. This cause research showed that the glazings have different transmission properties. The results show that due to the large differences between the sound insulation and the great uncertainties, the glazings are unsuitable for the evaluation of test facilities according to DIN EN ISO 10140.

OBJEKTIVE ÜBERPRÜFUNG DER ERZEUGUNG VIRTUELLER SCHALLQUELLEN FÜR HÖRGERÄTETRÄGER MIT EINEM TASCAR-SYSTEM
Henning Hoppe

Bachelorarbeit im Studiengang Hörtechnik und Audiologie
Betreut durch Prof. Dr.-Ing. M. Blau und Dr. M. Schulte
Eingereicht am 26. September 2018

Das Ziel dieser Bachelorarbeit ist die Überprüfung virtueller Schallquellen, erzeugt durch ein TASCAR-System, und deren Nutzbarkeit für Hörgeräteträger. Zu diesem Zweck wurden vier reale Schallquellen und deren Simulationen an 41 Punkten um die Mittelpunktposition mit einem Mikrofon sowie einem Kunstkopf mit Hörgeräte-Attrappen gemessen. Die Ergebnisse zeigen, dass eine Simulation der Schallquelle mit Abweichungen von 4 dB oder weniger pro halbe Terz mit einem Kunstkopf im Bereich von 4 cm um den Mittelpunkt möglich ist und dass diese Abweichungen mit größeren Abständen vom Mittelpunkt bis auf 8 dB ansteigen, während die Unterschiede zwischen den einzelnen Hörgerätemikrofonen nicht größer als 3 dB werden. Des Weiteren zeigen die Ergebnisse den Einfluss von Bewegungen und Position der Schallquellen auf die Genauigkeit der simulierten Schallquelle. Da der Aufbau des verwendeten TASCAR-Systems ein Teil dieser Arbeit war, sind auch die durchgeführten Maßnahmen zur akustischen Optimierung des Messraums sowie der Aufbau des TASCAR-Systems beschrieben.

The goal of this bachelor thesis is the examination of virtual sources of sound, generated by a TASCAR-system, and their usability for people with hearing aides. To achieve this four real sources of sound and their simulations were measured with a microphone and an artificial head with hearing aide dummies at 41 spots around the center position. The results show that a simulation of the source of sound is possible with deviations of 4 dB or less per half a third octave and that these deviations increase to up to 8 dB at larger distances from the center position while the deviations between each hearing aide microphone don’t increase more than 3 dB. Additionally, the results show the influence of movement and position of the real source of sound on the precision of the simulated source of sound. Since the construction of the TASCAR system was part of this thesis the realized arrangements for the acoustic optimization of the measuring room and the setup of the TASCAR system are described as well.

Acoustic Features for Analysis of Dysarthric Speech in Parkinson’s Disease as an Individualized Feedback Tool
Laura Tuschen

Bachelorarbeit im Studiengang Hörtechnik und Audiologie
Betreut durch Prof. Dr.-Ing. Jörg Bitzer und Dr.-Ing. Stefan Götze
Eingereicht am 3. September 2018

Morbus Parkinson (M. Parkinson) ist eine neurologische, progressiv verlaufende Erkrankung, die zu motorischen Symptomen der Skelettmuskulatur führt. In den meisten Fällen ist auch die pharyngeale und orale Muskultur betroffen. Die damit einhergehende Störung der Stimme und des Sprechen werden als hypokinetische Dysarthrie bezeichnet. Zudem führt die Erkrankung häufig zu einer Beeinträchtigung der Selbstwahrnehmung des eigenen Sprechens, da sowohl die auditorische als auch die somatosensorische Rückkopplung zur eigenen Stimm- und Sprechkontrolle beeinträchtigt sein können. Neue Technologien, darunter v.a. verschiede elektronische Gesundheitsanwendungen, sind im Bereich der Logopädie noch wenig verbreitet. Computerbasierte Therapie bei M. Parkinson ermöglicht den Patienten jedoch eine individuelle Therapie zu Hause sowie Langzeitversorgung. Dieser Form der digitalen Therapie fehlt jedoch häufig eine individualisierte, zuverlässige Rückmeldung zu den verschiedenen Übungen. Zur Evaluierung der Anforderungen wurden in dieser Arbeit akustische Merkmale mit Hilfe von Methoden aus der Signalverarbeitung erfasst und damit quantitative und reliable Messdaten berechnet, die mit den Stimm- und Sprecheinschränkungen bei Dysarthrie korrelieren. Diese Ergebnisse sollen dann die automatische Generierung von individuellem Feedback ermöglichen. Hierzu wurden akustische Merkmale aus 40 Sprachaufnahmen einer deutschen Phrase von dysarthrischen Patienten extrahiert. Die Ergebnisse wurden anschließend statistisch hinsichtlich Gruppenunterschiede und Korrelationen bezogen auf die Messdaten und den Grad der Dysarthrie ausgewertet. Die Ergebnisse der Untersuchung zeigten sich als nicht valide. Dennoch konnten erste Tendenzen ermittelt werden, die eine Korrelation akustischer Merkmale mit dem Grad der Dysarthrie bei Parkinson aufzeigen. Weitere Arbeiten sind nötig, um die Variabilität im Sprechen allgemein, aber auch in der Symptomausprägung der Dysarthrie zu erfassen. Ebenso wird deutlich, dass die Bearbeitung der Thematik interprofessionelles Wissen erfordert. Daher wird vorgeschlagen, das Studiendesign zu optimieren, um so ein automatisches und individuelles Feedbacksystem zu entwickeln, das zur Bewertung dysarthrischer Sprache und auch in Bezug auf den Schweregrad der Störung eingesetzt werden kann.

Parkinson’s Disease (PD) is a neurological, progressive disease leading to motor-related symptoms of the skeletal muscles. The motor dysfunctions mostly go along with disorders of pharyngeal and oral muscles. Such disorders are called hypokinetic dysarthria. The patients often show decreasing self-perception of their disorders in voice and articulation, because of possible disrupted auditory and somatosensory feedback about one’s own manner of speaking. In the field of speech and language therapy new technologies, especially electronic health-related applications, are still missing. Despite considerable opportunities, therapy apps or online tools have barriers. Computerized therapy of PD makes individual home-based and long-term treatment possible, but individualized and reliable feedback on the exercises is limited in such automatized applications. Therefore in this thesis acoustic measurements were evaluated for different degrees of dysarthric speech, using methods of signal processing, to receive quantitative and reliable data correlated to voice and speech quality, serving as a basis for individual feedback generation. Acoustic measurements, as a set of different features, were applied to recordings of a German phrase of 40 patients suffering from hypokinetic dysarthria. Features were statistically evaluated afterwards regarding correlations and group differences between outcomes and degree of dysarthria. No statistically valid results could be revealed in this thesis. Nevertheless tendencies of feature outcomes, correlating to the degree of dysarthria, could be shown. Thus, this thesis can serve as a basis for further analysis of dysarthric speech to develop a reliable assessment of the degree of dysarthria for a planned automatic feedback system. Further research is necessary to deal with speech variabilities as well as variations in the symptoms of dysarthria. The results underline the need of inter-professional work in such assignments. The optimization of the study design for possible future work is proposed as well.

Methodenentwicklung zur Verhaltensbeobachtung der momentanen Lebensqualität von Menschen mit Hörbeeinträchtigung
Maria Gebhard

Masterarbeit im Studiengang Public Health
Betreut durch Dr. Markus Meis und Prof. Dr. Inga Holube
Eingereicht am 3. August 2018

Schwerhörigkeit gehört zu den häufigsten chronischen Erkrankungen und tritt vermehrt mit zunehmenden Alter auf, wobei es die gesundheitsbezogene Lebensqualität der Betroffen einschränkt. Ziel dieser Arbeit ist die Entwicklung und Überprüfung eines Instruments zur Bestimmung des Hörvermögens schwerhöriger Erwachsener durch externe Beobachter. Das Instrument wird basierend auf dem Core Set Schwerhörigkeit der Internationalen Klassifikationen von Funktionsfähigkeit, Behinderung und Gesundheit (ICF) entwickelt und in Form der App "Annotator" praxisgerecht umgesetzt. In Verhaltensbeobachtungen wird das Hörvermögen von Probanden anhand des Kommunikationsverhaltens mit dem Instrument durch externe Rater überprüft, wobei der Schwerpunkt der Untersuchung auf der Reliabilität und Objektivität liegt. In Voruntersuchungen werden die relevanten Codes für das Instrument ausgewählt. Im ersten Teil einer videobasierten Studie zeigt sich im Test-Retest Verfahren eine exzellente Reliabilität. Im zweiten Teil der Studie mit einer Stichprobe von 23 Probanden und vier Ratern zeigt sich die hohe Güte für das entwickelte Instrument an guten bis exzellenten Reliabilitäten für die acht entwickelten Codes. Die Untersuchungen zeigen, die gute Eignung der Beobachtung der Veränderung der Sitzposition als Indikator für Schwerhörigkeit. Die in dieser Arbeit entwickelte Methode bildet ein weiteres Instrument zur Optimierung des Hörvermögens Erwachsener und somit der gesundheitsbezogenen Lebensqualität.

Hearing loss is one of the most common chronic diseases and occurs increasingly with age, restricting the health-related quality of life of those affected. The aim of this work is to develop and test an instrument to determine the hearing ability of hearing impaired adults by means of external observers. The instrument is developed on the basis of the Core Set Hearing Loss of the International Classifications of Functioning, Disability and Health (ICF) and implemented in a practical way in the form of the app "Annotator". In behavioral observations, the hearing capabilities of test persons are examined by external counselors based on test persons' communication with the tool, with the focus of the study being on reliability and objectivity. The relevant codes for the instrument are selected in preliminary tests. In the first part of a video-based study, the test-retest procedure shows excellent reliability. In the second part of the study with a sample of 23 test persons and four raters the high quality for the developed instrument is shown by good to excellent reliabilities for the eight developed codes. The study show the good suitability of observations of the change in sitting position as an indicator for hearing loss. The method developed in this thesis is another instrument for optimizing the hearing ability of adults and thus the health-related quality of life.

Vergleich akustischer Messungen mit subjektiven Bewertungen des Klangeindrucks bei Verwendung verschiedener Schallführungen (Waveguides) vor einem Hochtöner eines 2-Wege-Studiolautsprechers unter verschiedenen akustischen Raumbedingungen
Nadine El-Dajani

Bachelorarbeit im Studiengang Hörtechnik und Audiologie
Betreut durch Prof. Dr.-Ing. M. Blau und Dr.-Ing. R. Stenz
Eingereicht am 10. Juli 2018

Evaluation von synthetischen Sprachsignalen für die Verwendung in Sprachverständlichkeitstests: Der OLSA mit synthetischer Stimme
Bianca Wiercinski

Masterarbeit im Studiengang Hörtechnik und Audiologie
Betreut durch Prof. Dr. lnga Holube und Dr. Thomas Brand
Eingereicht am 11. April 2018

Sprachsynthesizer haben in den vergangenen Jahren stark an Qualität gewonnen und werden bereits in verschiedensten Anwendungsgebieten eingesetzt. Es stellt sich die Frage, ob sich synthetische Sprache auch für die Durchführung sprachaudiometrischer Tests eignet. Vergleichbare Diskriminationsfunktionen für natürliche und synthetische Sprache würden es ermöglichen, mit geringem Aufwand eine Vielzahl an Testlisten zu erzeugen und damit häufige Sprachverständlichkeitsmessungen durchzuführen ohne einzelne Testlisten wiederholen zu müssen. Um das Verstehen synthetischer Sprache zu untersuchen und Unterschiede zu natürlichen Sprechern aufzuzeigen, wurde zunächst aus drei kommerziellen Produkten in einem Probandentest ein Synthesesystem mit einem möglichst natürlichen Klangbild ausgewählt. Die Entscheidung wurde durch die Vorhersage des Qualitätsschätzers von Norrenbrock et al. (2015) bestätigt. Mit dem gewählten Synthesesystem wurde anschließend der Korpus des weiblichen Oldenburger Satztests generiert und mit jungen Normalhörenden im direkten Vergleich zum Sprachmaterial mit natürlicher Sprecherstimme evaluiert. Eine nachträgliche (Pegel-) Anpassung der Wörter, wie sie bei der Entwicklung des Oldenburger Satztests angewendet wurde, erfolgte dabei nicht. Für die Evaluation des synthetischen Oldenburger Satztests wurde das Sprachverstehen jeweils bei drei verschiedenen Signal-Rausch-Abständen gemessen und den gewonnenen Daten Diskriminationsfunktionen angepasst. Dabei konnte kein signifikanter Unterschied zwischen synthetischer und natürlicher Stimme festgestellt werden; mit beiden Sprechervarianten ließen sich sehr gut die Literaturwerte der Evaluation des weiblichen Oldenburger Satztests reproduzieren. Trotz des Verzichts auf nachträgliche Optimierungsmessungen wurde eine ähnliche Listenäquivalenz erreicht. Die Sprachsynthese lieferte darüber hinaus geringere Unterschiede in der Verständlichkeit der einzelnen Wortgruppen als die Variante mit natürlicher Stimme. Die empirischen Daten wurden anschließend genutzt, um die Performanz des FADE-Modells von Schädler et al. (2015) zu überprüfen.

The quality of speech synthesizers has improved considerably over the last couple of years. Since synthetic speech is already used in varying applications, the question arises, if it could be applicable in speech audiometry as well. If natural and synthetic speech would lead to comparable speech intelligibility functions, it would be possible to generate a wide variety of test lists with significantly less effort compared to the conventional way which would allow frequent measurements without repeating single test lists. To analyze the intelligibility of synthetic speech and to show possible differences to natural voices, a listening test with young normal hearing participants has been performed to choose a text-to-speech-system from a preselection of three commercial products. The task focused on identifying the synthetic voice with the most natural sound. The decision has been confirmed by a quality estimation calculated with a prediction model of Norrenbrock et al. (2015). Using the chosen TTS-System, the speech material of the Oldenburg sentence test (OLSA) with female speaker has been reproduced and evaluated in direct comparison to the natural speaker during another listening test with young normally hearing participants. In contrast to the version with natural speaker, no level adjustments or optimization tests have been performed while producing the synthetic speech material. For the evaluation of the Oldenburg sentence test with synthetic voice speech recognition thresholds have been measured at three different signal to noise ratios. Psychometric functions were fitted to the empirical data and no significant differences were found between SRTs of natural and synthetic speaker. Both versions lead to SRTs comparable to results known from the literature. Although no optimization adaptions have been applied, the synthetic speech signals lead to equivalent values for intelligibility of the different test lists as well as to fewer discrepancies between different word categories. The empirical data have been used to examine the performance of the FADE-model for simulation of psychoacoustic experiments from Schädler et al. (2015).

Experimentelle Untersuchungen zu schwingungsmechanischen und akustischen Eigenschaften von Ultraschallsensoren
Eike Claaßen

Bachelorarbeit im Studiengang Hörtechnik und Audiologie
Betreut durch Prof. Dr.-Ing. Matthias Blau und Dr.-lng. Andre Gerlach
Eingereicht am 28. Februar 2018

Experimentelle Untersuchungen zu den schwingungsmechanischen Eigenschaften von piezobasierten Ultraschallsensoren
Jette Madita Niemeyer

Bachelorarbeit im Studiengang Hörtechnik und Audiologie
Betreut durch Prof. Dr.-Ing. Matthias Blau und Dr.-lng. Andre Gerlach
Eingereicht am 28. Februar 2018

Untersuchungen zur Ertaubungsdauer und audiologischen Benefit und der hörbasierten Lebensqualität bei einer bimodalen CI-Versorgung
Anika Morgenstern

Bachelorarbeit im Studiengang Hörtechnik und Audiologie
Betreut durch Prof. Dr. med. Karsten Plotz und Dr. Wilma Vorwerk
Eingereicht am 23. Februar 2018

Durch die Erweiterung der Indikationskriterien für die Versorgung mit Cochlea-Implantaten (CI) ist die bimodale Versorgung keine Ausnahme mehr. Hierbei ist das zur CI-Seite kontralaterale Ohr mit einem Hörgerät (HG) versorgt. Allerdings zeigten verschiedene Studien, dass nicht alle Probanden einen Nutzen/ Benefit durch das zusätzliche Tragen des HGs erzielten. Als ein möglicher Einflussfaktor auf die Größe des bimodalen Benefits wird die Ertaubungsdauer diskutiert. Das Ziel dieser Studie war es, zu untersuchen, inwieweit der bimodale Benefit und die Ertaubungsdauer zusammenhängen. Hierfür wurde bei 15 bimodal versorgten Probanden das Sprachverstehen in Ruhe und in verschiedenen Störgeräuschen mit dem Freiburger Einsilbertest (FBE) und dem Oldenburger Satztest (OLSA) ermittelt. Um insbesondere den Nutzen im Alltag der Probanden zu erfassen, wurden zusätzlich verschiedene Fragebögen eingesetzt. In den Sprachtestergebnissen konnte der bimodale Nutzen gezeigt werden, welcher jedoch aufgrund der kleinen Stichprobengröße die Signifikanz verfehlte. Die Ergebnisse der Fragebögen zeigten einen tendenziellen Zusammenhang zwischen der subjektiv eingeschätzten Hörfahigkeit und Hörbeeinträchtigung mit dem bimodalen Benefit. Insgesamt ließ sich jedoch kein Zusammenhang zwischen der Ertaubungsdauer und dem bimodalen Benefit nachweisen.

With the extension of cochlea implant candidacy criteria, bimodal fitting is no longer an exception. In this case, the ear contralateral to the CI is fitted with a hearing aid. However, various studies have shown that not all subjects could benefit from bimodal hearing. As a possible influencing factor the duration of deafness is discussed. The aim of this study is to investigate the relationship between bimodal benefit and duration of deafness. For this purpose, speech recognition of 15 bimodal listeners was determined in quiet and in noise using the Freiburger Monosyllabic Test and the Oldenburg Sentence Test. In order to determine the bimodal benefit in everyday life, various questionnaires were used. The subjects showed a bimodal benefit in the speech tests, which however did not achieve significance due to the small sample size. The evaluation of the questionnaires revealed a tendentious link between hearing ability and impairment and bimodal benefit. However, as a whole, it was not possible to establish a link between the duration of deafness and bimodal benefit.

Richtungshören und audio-visuelle Aufmerksamkeit bei Cochlea-Implantat-Trägern
Jana Nadine Schröder

Bachelorarbeit im Studiengang Hörtechnik und Audiologie
Betreut durch Prof. Dr. med. Karsten Plotz und Dr. rer. medic. Arne Knief
Eingereicht am 23. Februar 2018

Ziel der Studie war die Überprüfung, ob es einen Zusammenhang zwischen dem Richtungshören und der audio-visuellen Aufmerksamkeit bei Cochlea-Implantat- Trägern (CI-Trägern) gibt. Zur Überprüfung wurden beide Teilaufgaben zunächst einzeln untersucht und ausgewertet, um festzustellen, ob diese von den Patienten zu lösen sind. Das Richtungshören wurde am erweiterten Mainzer-Kindertisch (ERKI, Auritec, Hamburg) geprüft. Dieser ermöglicht es, Schallquellen mit einer besonders hohen Winkelauflösung von 5° im vorderen Halbkreis zu präsentieren. Die audio-visuelle Aufmerksamkeit wurde mittels eines Tests aus der Testbatterie zur Aufmerksamkeitsprüfung (TAP, Version 2.3.1, V. Fimm, Psytest, Herzogenrath) geprüft. Diese Testvariante ermöglicht eine zeitgleiche Abfrage der Wahrnehmung visueller und auditiver Sinnesreize. Insgesamt nahmen an der Studie 70 Probanden teil, die in drei Gruppen (Normalhörende (NH), binaural (beidohrig) Hörende und monaural (einohrig) Hörende), sowie drei weitere Untergruppen der binaural Hörenden (CI + CI; CI + NH; CI + Hörgerät (HG)), unterteilt wurden. Die Ergebnisse deuten darauf hin, dass es bei NH und binaural Hörenden (CI + NH) einen Zusammenhang zwischen dem Richtungshören und der Anzahl an Auslassungen visueller Sinnesreize zu geben scheint. Ebenfalls zeigte diese binaural hörende Untergruppe, dass das Richtungshören und die auditive Reaktionsgeschwindigkeit zusammenhängen. Die größere Fähigkeit des Richtungshörens führte zum Nachlassen der visuellen Aufmerksamkeit. Dies kann durch die schnellere auditive Reaktionszeit begründet sein. Bei der binauralen Untergruppe (CI + HG) und bei NH scheint die visuelle Reaktionsgeschwindigkeit einen Zusammenhang zum Richtungshören zu haben.

The aim of the study was to examine if there is a correlation between directional hearing and audiovisual attention in cochlear implant users. For review, both subtasks were first individually examined and evaluated to see if they can be solved by the patients. Directional hearing was tested at the ”erweiterten Mainzer-Kindertisch (ERKI, Auritec, Hamburg). This makes it possible to present sound sources with a particular high angular resolution of 5° in the front semicircle. The audiovisual attention was tested by a test from the Testbatterie zur Aufmerksamkeitsprüfung (TAP, Version 2.3.1, V. Fimm, Psytest, Herzogenrath). This test variant enables a simultaneous query of the perception of visual and auditory sensory stimuli. In total, 70 subjects participated in the study, which were divided into three groups (normal hearing (NH), binaural hearing and monaural hearing), as well as three further subgroups of binaural hearing (CI + CI; CI + NH; CI + hearing aid (HG)). The results suggest that there may be a correlation between directional hearing and the number of omissions of visual sensory stimuli in normal hearing and binaural hearing (CI + NH). Also, this binaural hearing subgroup showed that directional hearing and auditory reaction rate are related. The grater ability of directional hearing led to the loss of visual attention. This may be due to the faster response time. In the binaural subgroup (CI + HG) and in normal hearing, the visual reaction rate seems to be related to directional hearing.

Implementation of a psycho-acoustically based limiter in a low frequency loudspeaker reproduction algorithm
Jan Tinneberg

Bachelorarbeit im Studiengang Hörtechnik und Audiologie
Betreut durch Prof. Dr. Martin Hansen und M.Sc. Jakob Dyreby
Eingereicht am 22. Februar 2018

Die altersabhängige Lokalisationsfähigkeit bei Kindern im Alter von drei bis acht Jahren gemessen mit dem ERKI-System
Franziska Behnen

Bachelorarbeit im Studiengang Hörtechnik und Audiologie
Betreut durch Prof. Dr. med. Karsten Plotz und Dr.-Ing. Tobias Rader
Eingereicht am 21. Februar 2018

Das Richtungshören ist eine wichtige Fähigkeit, die alltäglich verwendet wird. Dabei muss das auditorische System viele Aufgaben gleichzeitig bewältigen. Daher ist die Überprüfung des Richtungshörvermögen besonders bei Kleinkindern wichtig. Aufgrund der mangelnden Diagnostikverfahren zur Überprüfung des Richtungshörens, wurde ein neues System entwickelt - das System zur Erfassung des Richtungshörens bei Kindern, kurz ERKI. Mit diesem System wurde die vorliegende Studie an der Universitätsmedizin in Mainz in der Abteilung für Kommunikationsstörungen durchgeführt. Dabei wurde das Richtungshörvermögen von 49 normalhörenden Kindern im Alter von drei bis acht Jahren mit dem ERKI-System geprüft. Der Fokus lag neben der altersabhängigen Fähigkeit zur erfolgreichen Teilnahme auch auf die altersabhängige Lokalisationsleistung am ERKI. Die Ergebnisse von 39 Kindern wurden in fünf Altersklassen eingeteilt und ausgewertet. Es zeigte sich, dass der ERKI bereits mit dreijährigen Kindern erfolgreich durchgeführt werden kann. Schwierigkeiten bei dieser jungen Altersgruppe sind das Vermitteln der Aufgabenstellung und das Aufbringen der benötigten Konzentration. Es zeigte sich zudem eine Zunahme der Lokalisationsgenauigkeit mit dem Alter und eine abnehmenden Streuung des Lokalisationsfehlers bei den höheren Altersklassen.

Directional hearing is an important skill that is used everyday. The auditory system has to handle many tasks at the same time. Therefore, it is important to check directional hearing, especially in toddlers. Due to the lack of diagnostic procedures to check the directional hearing, a new system was developed - Erfassung des Richtungshörens bei Kindern, short ERKI. With this system, the present study was carried out at the University Medical Center in Mainz in the Department of Communication Disorders. The directional hearing ability of 49 normal hearing children aged 3 to 8 years was tested with the ERKI system. In addition to the age-dependent ability to successfully participate, the focus was also on the age-dependent localization performance at the ERKI. The results of 39 children were divided into five age groups and evaluated. It turned out that the ERKI can already be successfully carried out with three-year-old children. Difficulties in this young age group are mediating the task and applying the required concentration. There was also an increase in localization accuracy with age and a decreasing dispersion of the localization error among the older age groups.