<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Semantische Suche Archive - Sense.AI.tion GmbH</title>
	<atom:link href="https://senseaition.com/tag/semantische-suche/feed/" rel="self" type="application/rss+xml" />
	<link>https://senseaition.com/tag/semantische-suche/</link>
	<description>Machen Sie Ihr Unternehmen fit für die… “Kommunikation mit Zukunft”</description>
	<lastBuildDate>Tue, 10 Jan 2023 14:30:05 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://senseaition.senseaition.rocks/wp-content/uploads/2020/02/WEB_AI_App_Logo_reduziert_200px_trans.png</url>
	<title>Semantische Suche Archive - Sense.AI.tion GmbH</title>
	<link>https://senseaition.com/tag/semantische-suche/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Automatisierung von Dokumentationsaufgaben in der Pflege</title>
		<link>https://senseaition.com/2023/01/06/automatisierung-von-dokumentationsaufgaben-in-der-pflege/</link>
		
		<dc:creator><![CDATA[sense.AI.tion]]></dc:creator>
		<pubDate>Fri, 06 Jan 2023 13:23:20 +0000</pubDate>
				<category><![CDATA[Allgemein]]></category>
		<category><![CDATA[Development]]></category>
		<category><![CDATA[Forschung]]></category>
		<category><![CDATA[KI Künstliche Intelligenz]]></category>
		<category><![CDATA[Software-Development]]></category>
		<category><![CDATA[Automatisierung]]></category>
		<category><![CDATA[bert]]></category>
		<category><![CDATA[cloud-computing]]></category>
		<category><![CDATA[Cloud-Software]]></category>
		<category><![CDATA[cosine similarity]]></category>
		<category><![CDATA[Dokumentation]]></category>
		<category><![CDATA[Evaluation]]></category>
		<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[Microservice]]></category>
		<category><![CDATA[Natural Language Processing]]></category>
		<category><![CDATA[NLP]]></category>
		<category><![CDATA[paraphrase]]></category>
		<category><![CDATA[Pflege]]></category>
		<category><![CDATA[Semantische Suche]]></category>
		<category><![CDATA[sense.AI.tion]]></category>
		<category><![CDATA[smart assistant]]></category>
		<category><![CDATA[software-development]]></category>
		<category><![CDATA[Software-Entwicklung]]></category>
		<category><![CDATA[sota]]></category>
		<category><![CDATA[Sprachsteuerung]]></category>
		<category><![CDATA[sts]]></category>
		<category><![CDATA[T5]]></category>
		<category><![CDATA[textual similarity]]></category>
		<category><![CDATA[transformer]]></category>
		<category><![CDATA[xlm]]></category>
		<guid isPermaLink="false">https://senseaition.com/?p=2317</guid>

					<description><![CDATA[<p>Die Dokumentation in der Pflege nimmt zu viel Zeit. Durch automatische, sprachgesteuerte KI-Systeme werden Pflegekräfte von Dokumentationsdruck und Bürokratie entlastet.</p>
<p>Der Beitrag <a href="https://senseaition.com/2023/01/06/automatisierung-von-dokumentationsaufgaben-in-der-pflege/">Automatisierung von Dokumentationsaufgaben in der Pflege</a> erschien zuerst auf <a href="https://senseaition.com">Sense.AI.tion GmbH</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div id="vc_row-69dfd470bf980" class="vc_row wpb_row vc_row-fluid thegem-custom-69dfd470bf9754221"></div><div class="wpb_column vc_column_container vc_col-sm-12 thegem-custom-69dfd470c503a4082" ><div class="vc_column-inner thegem-custom-inner-69dfd470c503c "><div class="wpb_wrapper thegem-custom-69dfd470c503a4082"></div></div></div>
	
		<div class="wpb_text_column wpb_content_element  thegem-vc-text thegem-custom-69dfd470c528e1118"  >
			<div class="wpb_wrapper">
				<h1>Automatisierung von Dokumentationsaufgaben in der Pflege &#8211; Verbesserung eines KI-Modells zur Bestimmung inhaltlicher Übereinstimmung von Texten</h1>

			</div>
			<style>@media screen and (max-width: 1023px) {.thegem-vc-text.thegem-custom-69dfd470c528e1118{display: block!important;}}@media screen and (max-width: 767px) {.thegem-vc-text.thegem-custom-69dfd470c528e1118{display: block!important;}}@media screen and (max-width: 1023px) {.thegem-vc-text.thegem-custom-69dfd470c528e1118{position: relative !important;}}@media screen and (max-width: 767px) {.thegem-vc-text.thegem-custom-69dfd470c528e1118{position: relative !important;}}</style>
		</div>
	

	
		<div class="wpb_text_column wpb_content_element  thegem-vc-text thegem-custom-69dfd470c52f78372"  >
			<div class="wpb_wrapper">
				<p><em>Im Rahmen der Erstellung eines KI-Systems zur Dokumentation von Arbeitstätigkeiten im Pflegesektor wurde ein allgemeines STS (Semantic Textual Similarity), zu deutsch Semantische Textnähe, Modell entwickelt. Basierend auf einem existierenden Ansatz für Textvergleiche in den Sprachen Deutsch und Englisch, werden Verbesserungsmöglichkeiten identifiziert und letztendlich in einem Modell-Training realisiert. Es ergibt sich eine Performance-Steigerung von 1 bis 5 Prozentpunkten. Insbesondere die Einbindung mehrerer Datensets erlaubt eine robustere Näheberechnung zwischen Sätzen bzw. Texten. Eine generelle Einschränkung mit STS muss die Forschung alsbald angehen … </em>Beitrag von <a href="https://www.linkedin.com/in/herrphilipps">Philipp Müller</a></p>

			</div>
			<style>@media screen and (max-width: 1023px) {.thegem-vc-text.thegem-custom-69dfd470c52f78372{display: block!important;}}@media screen and (max-width: 767px) {.thegem-vc-text.thegem-custom-69dfd470c52f78372{display: block!important;}}@media screen and (max-width: 1023px) {.thegem-vc-text.thegem-custom-69dfd470c52f78372{position: relative !important;}}@media screen and (max-width: 767px) {.thegem-vc-text.thegem-custom-69dfd470c52f78372{position: relative !important;}}</style>
		</div>
	
<div class="clearboth"></div><style>#thegem-divider-69dfd470c5335 {margin-top: 50px !important;}</style><div id="thegem-divider-69dfd470c5335" class="gem-divider  " style="" ></div>
	
		<div class="wpb_text_column wpb_content_element  wpb_animate_when_almost_visible wpb_bottom-to-top bottom-to-top thegem-vc-text thegem-custom-69dfd470c53709903"  >
			<div class="wpb_wrapper">
				
			</div>
			<style>@media screen and (max-width: 1023px) {.thegem-vc-text.thegem-custom-69dfd470c53709903{display: block!important;}}@media screen and (max-width: 767px) {.thegem-vc-text.thegem-custom-69dfd470c53709903{display: block!important;}}@media screen and (max-width: 1023px) {.thegem-vc-text.thegem-custom-69dfd470c53709903{position: relative !important;}}@media screen and (max-width: 767px) {.thegem-vc-text.thegem-custom-69dfd470c53709903{position: relative !important;}}</style>
		</div>
<div class="post__content">
<h2 id="information-retrieval-als-basis-von-textsuche">Einbindung von KI in der Pflege</h2>
<p>In der Pflege nimmt die <strong>Dokumentation</strong> von durchgeführten <strong>Arbeitsschritten</strong> einen nicht zu unterschätzenden Anteil der <strong>Arbeitszeit</strong> ein. So wünschen sich <em>über 85% der Pflegekräfte</em> in einer <a href="https://katho-nrw.de/fileadmin/media/foschung_transfer/forschungsinstitute/dip/Pflege_Thermometer_2018.pdf"><em>&#8222;Pflege-Thermometer“</em> Umfrage aus 2018</a> die <strong>Nutzung von Technologie für Dokumentationstätigkeiten</strong>, womit der Wunsch nach <strong>Entbürokratisierung</strong> und ein <strong>erleichterter Umgang</strong> mit derartigen Verpflichtungen einhergeht. Die Dokumentation von zuvor vereinbarten Zielen und damit damit verbundenen schriftlichen Quälereien betreffen auch viele andere Bereiche und sind Teil einer stetig <strong>komplexer werdenden Arbeitswelt</strong>. Letztendlich handelt es sich um die Abarbeitung von <em>&#8222;Checklisten&#8220;</em>, für die kurze Titel oder Beschreibungen je Arbeitsmaßnahme vorliegen.</p>
<figure id="attachment_2320" aria-describedby="caption-attachment-2320" style="width: 850px" class="wp-caption alignnone"><img class="wp-image-2320" src="https://senseaition.senseaition.rocks/wp-content/uploads/2023/01/ChecklisteMockup.drawio.png" alt="" width="850" height="563" srcset="https://senseaition.com/wp-content/uploads/2023/01/ChecklisteMockup.drawio.png 1362w, https://senseaition.com/wp-content/uploads/2023/01/ChecklisteMockup.drawio-300x199.png 300w, https://senseaition.com/wp-content/uploads/2023/01/ChecklisteMockup.drawio-1024x678.png 1024w, https://senseaition.com/wp-content/uploads/2023/01/ChecklisteMockup.drawio-768x509.png 768w" sizes="(max-width: 850px) 100vw, 850px" /><figcaption id="caption-attachment-2320" class="wp-caption-text">Abbildung: Beispielhafte Checkliste für eine Pflegekraft im ambulanten Dienst</figcaption></figure>
<p>&nbsp;</p>
<p>Mittels eines <strong>sprachgesteuerten Systems</strong>, so die Idee der <em>Sense.AI.tion GmbH</em> in Zusammenarbeit mit der <em>TH Wildau</em>, werden <strong>ausgeführte Arbeitsschritte</strong> einfach <strong>ausgesprochen</strong> und <strong>aufgezeichnet</strong>. Dies kann sowohl im Moment der Durchführung als auch etwas später geschehen. In der Pflege können so Gespräche zwischen Pflegekraft und Pflegebedürftigen für diesen Zweck automatisch ausgewertet werden. Häufig werden Pflegemaßnahmen gegenüber der zu pflegenden Person sowieso im Gespräch nebenbei ausgesprochen. Dieser Ansatz lässt sich gleichermaßen auf andere Anwendungsfälle, beispielsweise eine Autowerkstatt, anwenden: Die TÜV-Prüfung oder Reparaturmaßnahme wird ins Sprachsystem eingesprochen, dass einen Abgleich mit der vordefinierten Checkliste vornimmt und diese automatisch ausfüllt.</p>
<h2 id="verbesserung-mit-ki-methoden">Unterstützung durch KI-Werkzeuge</h2>
<figure id="attachment_2322" aria-describedby="caption-attachment-2322" style="width: 850px" class="wp-caption alignnone"><img class="wp-image-2322" src="https://senseaition.senseaition.rocks/wp-content/uploads/2023/01/KIMachine.jpg" alt="" width="850" height="567" srcset="https://senseaition.com/wp-content/uploads/2023/01/KIMachine.jpg 1536w, https://senseaition.com/wp-content/uploads/2023/01/KIMachine-300x200.jpg 300w, https://senseaition.com/wp-content/uploads/2023/01/KIMachine-1024x683.jpg 1024w, https://senseaition.com/wp-content/uploads/2023/01/KIMachine-768x512.jpg 768w" sizes="(max-width: 850px) 100vw, 850px" /><figcaption id="caption-attachment-2322" class="wp-caption-text">Eine KI-Maschine der sense.AI.tion im Steampunk Style, generiert mit Stable Diffusion 2.1</figcaption></figure>
<p>&nbsp;</p>
</div>
<p>Auf technischer Ebene lässt sich dabei der Ansatz <strong>Semantic Textual Similiarity (STS)</strong> bzw. <strong>Semantische Textnähe</strong> nutzen, welcher angibt, wie ähnlich sich zwei Sätze bzw. Texte inhaltlich sind. Mit Aufkommen der aktuellen <em>KI-Welle</em> entwickelten sich in den letzten Jahren vielversprechende Ansätze, um dieses Problematik unter Nutzung von <strong>Machine Learning</strong>, respektive <strong>Deep Learning</strong>, effizient anzugehen. Die Einführung von <a href="https://arxiv.org/abs/1706.03762"><em>&#8222;Transformer&#8220;</em></a>, zu nennen sind hierbei vor allem BERT, XLM, und T5, ermöglichen es, <strong>Zusammenhänge von Worten</strong> (Ähnlichkeit, Analogie, Thematik) durch neuronale Sprachmodelle im <strong>Kontext</strong> darzustellen und hinsichtlich der relativen <strong>Relevanz</strong> zu bemessen. Ein solches Modell kann anschließend anhand von Trainingsdaten hinsichtlich eines Lernziels optimiert werden.</p>
<div class="post__content">
<p>Bei einem STS-Transformer-Modell, werden Sätze in <strong>mathematische Vektoren</strong> umgewandelt und können u.a. mit dem <strong>Maß der Kosinus-Ähnlichkeit</strong> (engl. <em>&#8222;cosine similarity&#8220;</em>) auf semantische/inhaltliche Übereinstimmung verglichen werden. Im Falle der Checkliste werden dazu Titel/Beschreibung der einzelnen Aufgabe mit den Sätzen verglichen, die durch einen Nutzer in das System schriftlich oder mündlich eingegeben werden.</p>
<figure id="attachment_2368" aria-describedby="caption-attachment-2368" style="width: 850px" class="wp-caption alignnone"><img class="wp-image-2368" src="https://senseaition.senseaition.rocks/wp-content/uploads/2023/01/ChecklisteZuordnungMockup.drawio.png" alt="" width="850" height="318" srcset="https://senseaition.com/wp-content/uploads/2023/01/ChecklisteZuordnungMockup.drawio.png 1901w, https://senseaition.com/wp-content/uploads/2023/01/ChecklisteZuordnungMockup.drawio-300x112.png 300w, https://senseaition.com/wp-content/uploads/2023/01/ChecklisteZuordnungMockup.drawio-1024x384.png 1024w, https://senseaition.com/wp-content/uploads/2023/01/ChecklisteZuordnungMockup.drawio-768x288.png 768w, https://senseaition.com/wp-content/uploads/2023/01/ChecklisteZuordnungMockup.drawio-1536x575.png 1536w" sizes="(max-width: 850px) 100vw, 850px" /><figcaption id="caption-attachment-2368" class="wp-caption-text">Die Pflegekraft (links) gibt bekannt, eine Teilaufgabe erledigt zu haben. Das KI-System nutzt das STS-Modell mit Cosine Similarity, um die Äußerung mit den Checklisten-Einträgen auf höchste Übereinstimmung zu prüfen und ggfs. abzuhaken.</figcaption></figure>
<p>&nbsp;</p>
</div>
<p>Neben einigen <strong>multilingualen Modellen</strong> existieren auch <strong>wenige deutschsprachige Modelle</strong> für die Berechnung der semantischen Nähe von Texten. Mit hunderttausenden Downloads ist hierbei vor allem ein Modell von Philipp May (<a href="https://huggingface.co/T-Systems-onsite/cross-en-de-roberta-sentence-transformer">https://huggingface.co/T-Systems-onsite/cross-en-de-roberta-sentence-transformer</a>) – von nun an <em>&#8222;TSystems-Modell&#8220;</em> genannt &#8211; hervorzuheben. Dieses basiert auf einem speziellen <a href="https://github.com/t-systems-on-site-services-gmbh/german-STSbenchmark">STS-Datenset</a>, welches mit Hilfe einer maschinellen Übersetzung für die deutsche Sprache nutzbar gemacht wurde. Die Popularität dieses Modells erklärt sich außerdem durch den <strong>cross-lingualen</strong> Ansatz zwischen Deutsch und Englisch, bei dem die semantische Nähe nicht nur zwischen zwei deutschen Sätzen, sondern auch zwischen englischen und deutsch-englischen-Kombinationen möglich ist.</p>
<p>Die Kombination aus cross-lingualer Verwendbarkeit von Deutsch und Englisch sowie der stetig guten Performance im internen Prototyping bei der Sense.AI.tion GmBH und TH Wildau führte zur Idee, eine Bestandsaufnahme des Ansatzes von Philipp May zu machen und an die aktuellen Gegebenheiten anzupassen. Grob lassen sich zwei Verbesserungspotentiale identifizieren:</p>
<ol>
<li>Es existieren neuere <a href="https://www.sbert.net/docs/pretrained_models.html">Basis-Modelle</a> aus 2022, die für das Training genutzt werden können</li>
<li>Die Menge an Trainingsbeispielen lässt sich durch weitere maschinelle Übersetzungen anderer Datensets vergrößern. Die Kombination beider Maßnahmen, so die Idee, führt zu einer robusteren und qualitativ besseren Performance.</li>
</ol>
<p style="padding-left: 40px;"><div class="lightweight-accordion"><details><summary class="lightweight-accordion-title"><span><img src="https://s.w.org/images/core/emoji/17.0.2/72x72/1f4da.png" alt="📚" class="wp-smiley" style="height: 1em; max-height: 1em;" /> Details zum Vorgehen für Wissensdurstige <img src="https://s.w.org/images/core/emoji/17.0.2/72x72/1f4da.png" alt="📚" class="wp-smiley" style="height: 1em; max-height: 1em;" /></span></summary><div class="lightweight-accordion-body"><p style="padding-left: 40px;">Zu 1:</p>
<ul>
<li>Für englischsprachige Anwendungsfälle existieren mit gewaltigem Abstand die meisten Datensets. So basiert das TSystems-Modell in der Basis auf einem <a href="https://huggingface.co/sentence-transformers/paraphrase-distilroberta-base-v1">englischsprachigen Paraphrasierungs-Modell</a> welches aus 7 verschiedenen Datensets besteht und insgesamt ca. 24,6 Millionen Sätze enthält. Diese zu übersetzen ist zumeist nicht wirtschaftlich.</li>
<li>Da für die deutsche Sprache (und auch viele andere) nur wenige Datensets zur Verfügung stehen, wird verstärkt die <a href="https://arxiv.org/abs/2004.09813">Knowledge Distillation</a> (<em>Teacher-Student-Ansatz</em>) verwendet. Dabei wird ein monolinguales Modell (meistens Englisch-basiert) in ein multilinguales Modell (prinzipiell jede Sprache möglich, in unserem Fall Englisch-Deutsch) umgewandelt. Das TSystems-Modell greift dafür auf exakt diesen Ansatz zu, wobei das <a href="https://huggingface.co/sentence-transformers/paraphrase-distilroberta-base-v1">Teacher-Modell</a> für über 50 Sprachen optimiert wurde.</li>
<li>Mittlerweile existiert eine zweite, größere Version des monolingualen Modells mit 12 verschiedenen Datensets und ca. 83,3 Millionen Beispielen. Dieses wurde im Zuge dieses Projektes von uns per Knowledge-Distillation für Deutsch nutzbar gemacht und dient als Ausgangsbasis für das STS-Training. Details können unter <a href="https://huggingface.co/PM-AI/paraphrase-distilroberta-base-v2_de-en">https://huggingface.co/PM-AI/paraphrase-distilroberta-base-v2_de-en</a> nachgelesen werden.</li>
</ul>
<p style="padding-left: 40px;">Zu 2:</p>
<ul>
<li>Das Datenset <a href="https://huggingface.co/datasets/stsb_multi_mt">STSb </a>galt zum Zeitpunkt des TSystems-Modells als einzige Möglichkeit, ein STS-Modell zu trainieren. Es wird auch bei unserem Modell eingebunden.</li>
<li><a href="https://huggingface.co/datasets/mteb/sickr-sts">SICK</a>, ein weiteres Datenset, wurde in Teilen bereits in STSb verwendet, jedoch führt unsere eigenständige Übersetzung, mittels DeepL, zu leicht abgewandelten Formulierungen. Durch diesen Ansatz lassen sich mehr Beispiele ins Training aufnehmen.</li>
<li>Das 2022 veröffentlichte Datenset <a href="https://github.com/Priya22/semantic-textual-relatedness">Priya22 semantic textual relatedness</a> wurde gleichermaßen per DeepL ins Deutsche übersetzt und den Trainingsdaten hinzugefügt. Da es über keinen Train-Test-Split verfügt, wurde dieser im Verhältnis 80:20 eigenständig angelegt.</li>
<li>Die Bewertungsskala aller Datensets wurde an STSb mit einem Wertebereich von 0 bis 5 angepasst.</li>
<li>Alle Trainings- und Testdaten wurden auf Duplikate innerhalb und miteinander geprüft und bei Fund entfernt. Die final verwendeten Datensets können hier betrachtet werden: <a href="https://gitlab.com/sense.ai.tion-public/datasets_sts_paraphrase_xlm-roberta-base_de-en">https://gitlab.com/sense.ai.tion-public/datasets_sts_paraphrase_xlm-roberta-base_de-en</a>.</li>
</ul>
<p style="padding-left: 40px;">
</div></details></div>
<div class="post__content">
<h2 id="training-des-modells-und-bewertung-der-ergebnisse">Training des Modells und Bewertung der Ergebnisse</h2>
<p>Im Anschluss an das Training, gilt es, das neu entstandene Modell mit anderen STS-Modellen zu vergleichen. Dazu wird die <strong>Performance</strong> sowohl cross-lingual als auch nur für Deutsch und Englisch <strong>gemessen</strong>. Erweiternd werden die verwendeten Test-Samples je Datenset einzeln (<em>STSb, SICK, Priya22</em>), als auch in einem großen kombinierten Test-Datenset (<em>all</em>) ausgewertet. Diese Unterteilung je Datenset ermöglicht eine faire Gesamteinschätzung, da externe Modelle nicht auf der selben Datenbasis wie das hier vorgestellte Modell aufbauen. Erweiternd werden nur Modelle aufgelistet, welche cross- bzw. multilinguale Fähigkeiten besitzen. Intern findet die Evaluierung auch mit monolingualen bzw. andersartigen Modellen statt. Die vollständige Tabelle kann unter folgendem Link in der <em>&#8222;Model Card&#8220;</em> betrachtet werden: <a href="https://huggingface.co/PM-AI/sts_paraphrase_xlm-roberta-base_de-en">https://huggingface.co/PM-AI/sts_paraphrase_xlm-roberta-base_de-en.</a></p>
<p><span id="tablepress-results_sts-description" class="tablepress-table-description tablepress-table-description-id-results_sts">Vergleich der multilingualen STS-Modelle nach Spearman Koeffizienten</span>

<table id="tablepress-results_sts" class="tablepress tablepress-id-results_sts" aria-describedby="tablepress-results_sts-description">
<thead>
<tr class="row-1">
	<th class="column-1">Model</th><th class="column-2">STSb</th><th class="column-3">SICK</th><th class="column-4">Priya22</th><th class="column-5">all</th>
</tr>
</thead>
<tbody class="row-striping row-hover">
<tr class="row-2">
	<td class="column-1"><br />
<a href="https://huggingface.co/PM-AI/sts_paraphrase_xlm-roberta-base_de-en" rel="noopener" target="_blank">PM-AI/sts_paraphrase_xlm-roberta-base_de-en</a> (unsers)</td><td class="column-2">0.8672 <img src="https://s.w.org/images/core/emoji/17.0.2/72x72/1f3c6.png" alt="🏆" class="wp-smiley" style="height: 1em; max-height: 1em;" /></td><td class="column-3">0.8639 <img src="https://s.w.org/images/core/emoji/17.0.2/72x72/1f3c6.png" alt="🏆" class="wp-smiley" style="height: 1em; max-height: 1em;" /></td><td class="column-4">0.8354 <img src="https://s.w.org/images/core/emoji/17.0.2/72x72/1f3c6.png" alt="🏆" class="wp-smiley" style="height: 1em; max-height: 1em;" /></td><td class="column-5">0.8711 <img src="https://s.w.org/images/core/emoji/17.0.2/72x72/1f3c6.png" alt="🏆" class="wp-smiley" style="height: 1em; max-height: 1em;" /></td>
</tr>
<tr class="row-3">
	<td class="column-1"><a href="https://huggingface.co/T-Systems-onsite/cross-en-de-roberta-sentence-transformer" rel="noopener" target="_blank">T-Systems-onsite/cross-en-de-roberta-sentence-transformer</a></td><td class="column-2">0.8525</td><td class="column-3">0.7642</td><td class="column-4">0.7998</td><td class="column-5">0.8216</td>
</tr>
<tr class="row-4">
	<td class="column-1"><a href="https://huggingface.co/PM-AI/paraphrase-distilroberta-base-v2_de-en" rel="noopener" target="_blank">PM-AI/paraphrase-distilroberta-base-v2_de-en</a> (unsers, ohne fine-tuning)</td><td class="column-2">0.8225</td><td class="column-3">0.7579</td><td class="column-4">0.8255</td><td class="column-5">0.8109</td>
</tr>
<tr class="row-5">
	<td class="column-1"><a href="http://sentence-transformers/paraphrase-multilingual-mpnet-base-v2" rel="noopener" target="_blank">sentence-transformers/paraphrase-multilingual-mpnet-base-v2</a></td><td class="column-2">0.8310</td><td class="column-3">0.7529</td><td class="column-4">0.8184</td><td class="column-5">0.8102</td>
</tr>
<tr class="row-6">
	<td class="column-1"><a href="https://huggingface.co/sentence-transformers/stsb-xlm-r-multilingual" rel="noopener" target="_blank">sentence-transformers/stsb-xlm-r-multilingual</a></td><td class="column-2">0.8194</td><td class="column-3">0.7703</td><td class="column-4">0.7566</td><td class="column-5">0.7998</td>
</tr>
<tr class="row-7">
	<td class="column-1"><a href="https://huggingface.co/sentence-transformers/paraphrase-xlm-r-multilingual-v1" rel="noopener" target="_blank">sentence-transformers/paraphrase-xlm-r-multilingual-v1</a></td><td class="column-2">0.7985</td><td class="column-3">0.7217</td><td class="column-4">0.7975</td><td class="column-5">0.7838</td>
</tr>
<tr class="row-8">
	<td class="column-1"><a href="https://huggingface.co/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2" rel="noopener" target="_blank">paraphrase-multilingual-MiniLM-L12-v2</a></td><td class="column-2">0.7823</td><td class="column-3">0.7090</td><td class="column-4">0.7830</td><td class="column-5">0.7834</td>
</tr>
<tr class="row-9">
	<td class="column-1"><a href="https://huggingface.co/sentence-transformers/distiluse-base-multilingual-cased-v1" rel="noopener" target="_blank">sentence-transformers/distiluse-base-multilingual-cased-v1</a></td><td class="column-2">0.7449</td><td class="column-3">0.6941</td><td class="column-4">0.7607</td><td class="column-5">0.7534</td>
</tr>
<tr class="row-10">
	<td class="column-1"><a href="https://huggingface.co/sentence-transformers/distiluse-base-multilingual-cased-v2" rel="noopener" target="_blank">sentence-transformers/distiluse-base-multilingual-cased-v2</a></td><td class="column-2">0.7517</td><td class="column-3">0.6950</td><td class="column-4">0.7619</td><td class="column-5">0.7496</td>
</tr>
<tr class="row-11">
	<td class="column-1"><a href="http://sentence-transformers/distilbert-multilingual-nli-stsb-quora-ranking" rel="noopener" target="_blank">sentence-transformers/distilbert-multilingual-nli-stsb-quora-ranking</a></td><td class="column-2">0.7211</td><td class="column-3">0.6650</td><td class="column-4">0.7382</td><td class="column-5">0.7200</td>
</tr>
</tbody>
</table>
TGM_PAGESPEED_LAZY_ITEMS_INGORED_BLOCK_1_2<br />
<small>Tabelle 1: Ergebnis der Evaluierung. Auf einer Skala von 0.0 bis 1.0 werden die Ansätze nach der Metrik „Recall“ bewertet. Hierbei ist 1.0 der beste Wert.</small></p>
<p>Bei Betrachtung der Spalte <em>&#8222;all&#8220;,</em> welche das Performance-Ergebnis über alle genutzten Datensets aufzeigt, wird ein <strong>Performancesprung von 5%-Punkten</strong> erkennbar. Dies ist wenig überraschend, denn das hier vorgestellte Modell wurde als einziges unter Einbeziehung aller Datensets trainiert und jedes trainierte Modell tendiert zu besseren Ergebnissen, innerhalb der eigenen <strong>Trainingsdomäne</strong>. Außerdem werden Trainings zumeist nicht cross-lingual durchgeführt, d.h. Satzpaare gehören zur selben Sprache, werden aber nicht gekreuzt betrachtet, beispielsweise zwischen Deutsch und Englisch. Diese Herangehensweise wurde, in Anlehnung an TSystems, dennoch bewusst gewählt.</p>
<p>Folglich besteht die beste Vergleichbarkeit zwischen TSystems und unserem Modell, da zumindest STSb als auch der cross-linguale-Ansatz gleichermaßen Grundlage sind. Wird nun ausschließlich die Spalte <em>&#8222;stsb&#8220;</em> betrachtet, so fällt der <strong>Performance Unterschied mit ca. 1.5 Prozentpunkten</strong> deutlich kleiner aus. Dennoch kann sich unser Modell leicht steigern, da die Einbindung weiterer Datensets insgesamt einen positiven Einfluss zur Folge hat. Die bereits im vorherigen Paragraphen angesprochene nicht integrierte cross-linguale Nutzung wird bei Betrachtung des Modells <em>sentence-transformers/stsb-xlm-r-multilingual</em> gut sichtbar: Obwohl das Modell multilingual ist und speziell mit STSb trainiert wurde, performt es im cross-lingualen-Test deutlich schlechter als TSystems und unser Modell. Wird dagegen nur die Evaluierung mit englischen Sätzen in Betracht gezogen (siehe <a href="https://huggingface.co/PM-AI/sts_paraphrase_xlm-roberta-base_de-en">https://huggingface.co/PM-AI/sts_paraphrase_xlm-roberta-base_de-en</a>), so schmilzt der Performance Vorsprung.</p>
</div>
<p style="padding-left: 40px;"><div class="lightweight-accordion"><details><summary class="lightweight-accordion-title"><span><img src="https://s.w.org/images/core/emoji/17.0.2/72x72/1f4da.png" alt="📚" class="wp-smiley" style="height: 1em; max-height: 1em;" /> Details zum Vorgehen für Wissensdurstige <img src="https://s.w.org/images/core/emoji/17.0.2/72x72/1f4da.png" alt="📚" class="wp-smiley" style="height: 1em; max-height: 1em;" /></span></summary><div class="lightweight-accordion-body"><ul>
<li>Es ist wichtig zu verstehen, dass unser Modell Trainingsdaten von STSb, SICK und Priya22 gesehen hat, weshalb es auch ganz logisch bessere Ergebnisse liefert. Das Modell ist schlichtweg sensitiver für diese Art von Beispielen trainiert worden.</li>
<li>Die Datensets sind bezüglich ihrer Anzahl von Beispielen nicht in der Verhältnismäßigkeit angeglichen. So ist Priya22 beispielsweise deutlich unterrepräsentiert.</li>
<li>Die verglichenen Modelle sind von unterschiedlicher Größe, was sich auf Resourcenverbrauch (CPU, RAM) und die Inferenz-Geschwindigkeit (Benchmark) auswirkt. Sogenannte <em>&#8222;large&#8220; </em>Modells performen zumeist besser, kosten aber auch mehr (Ressourcen, realer Geldwert) als z.B <em>&#8222;base&#8220;</em> Modelle.</li>
<li>Multilinguale Modelle werden i.d.R. durch Knowledge Distillation, von einem monolingualen Zustand ausgehend, nachträglich multilingual gemacht. Sie performen daher in der Originalsprache meist etwas besser. In der Tabelle lässt sich dies bei den <em>&#8222;paraphrase&#8220;</em>-Modellen anhand der Ergebnisse für Englisch nachvollziehen – diese sind um mehrere Prozentpunkte besser als für Deutsch.</li>
</ul>
<p style="padding-left: 40px;">
</div></details></div>
<h2>Ausblick auf weitere Forschung und Entwicklung</h2>
<p>Ein häufiges Phänomen ist die inkorrekte Zuordnung bei Sätzen, die keine besondere Komplexität haben und für Menschen mit einem Blick korrekt einzuordnen sind. Aktuell schafft es daher noch kein einziges Modell eine vollständige, korrekte Bewertung vorzunehmen. Der Hauptgrund für dieses Phänomen liegt im Aufbau von STS Datensätzen. Die <strong>Nutzung</strong> wird in der aktuellen Forschung <strong>verstärkt kritisiert</strong>, da sie als nicht (mehr) ausreichend für das Training von semantische Nähe zwischen Sätzen eingeschätzt wird. Die <strong>Trainingssätze sind relativ simpel</strong> und <strong>decken viele Themenbereiche nur unzureichend ab</strong>. Dies wirkt sich vor allem auf Fachrichtungen (z.B. Pflege, Biologie, Medizin, usw.) negativ aus. Die in der Tabelle als <em>&#8222;paraphrase“</em> titulierten Modelle wurden mittels eines ähnlichen Ansatzes trainiert und sollen in Theorie bessere Ergebnisse liefern. Sowohl die veröffentlichte Tabelle als auch interne Tests haben dies bisher nicht bestätigt.</p>
<p>Die vorgestellte Herangehensweise verstärkt ein weiteres Problem von STS-Modellen: Die Checklisten-Einträge sind sehr kurz, wohingegen die Trainingsbeispiele vollständige Sätze umfassen. Gleichermaßen würde dieses Problem auch bestehen, wenn die Checklisten-Einträge sehr lang wären. Das Trainingsspektrum ist nicht breit genug gefasst, um diese Asymmetrie adäquat abzudecken.</p>
<p>Zu schlechter … guter Letzt stellt sich bei der Bewertung von semantischer Nähe auch die <strong>Frage</strong>, was <strong>genau im Fokus zweier Aussagen bzw. Sätze steht</strong>: Angenommen laut der Checkliste soll erkannt werden, ob ein <em>Fenster geöffnet/geschlossen</em> wird. In der Checkliste wird dazu das Label <em>&#8222;Fenster öffnen/schließen&#8220;</em> und der Beispielsatz <em>&#8222;Das Fenster in der Küche öffnen&#8220;</em> angelegt. Natürlich gibt es in der Liste noch weitere Einträge, beispielsweise <em>&#8222;Badezimmer reinigen&#8220;</em> mit dem Satz <em>&#8222;Das Badezimmer wurde gereinigt&#8220;</em>. Gilt es nun den Satz <em>&#8222;Ich habe das Fenster im Bad geöffnet&#8220;</em> korrekt einzuordnen, so scheint klar, dass es sich hierbei um das Label <em>&#8222;Fenster öffnen/schließen&#8220;</em> handelt. Nach vielen prototypischen Aufbauten mussten wir jedoch feststellen: <strong>STS-Modelle <em>&#8222;denken anders&#8220;</em></strong> bzw. <strong>folgen sehr groben Konzepten</strong>. Konkret könnte dem Modell die Verbindung zwischen Bad und Badezimmer wichtiger vorkommen als der Prozess des Fenster öffnens. Diese Problematik variiert von Modell zu Modell und wird für manche Themenbereiche gut aufgelöst und für andere überhaupt nicht.</p>
<p>Diese Einschränkungen lassen sich durch eine <strong>enge Zusammenarbeit</strong> zwischen Pflegeeinrichtungen bzw. dem Gesundheitswesen und Software-Anbietern ausräumen. Es gilt realistische und spezifische Äußerungen anhand echter <strong>Szenarien in die Trainingsdaten aufzunehmen</strong>. STS-Modelle lassen sich dennoch <strong>prinzipiell in verschiedenen Szenarien</strong> einsetzen und bieten eine <strong>solide Basis für semantische Näheberechnung</strong>. Inwiefern <em>Augmentation, Cross-Encoder</em> und die Klassifizierung nach der <em>SetFit-Methode</em> zu einer weiteren Verbesserung der Robustheit solcher Modelle führen schauen wir uns in einem weiteren Blogbeitrag an.</p>
<div class="post__content">
<hr />
<p>Dieses Projekt ist eine Kollaboration zwischen der <a href="https://www.th-wildau.de/">Technischen Hochschule Wildau</a> und <a href="https://senseaition.senseaition.rocks">sense.ai.tion GmbH</a>. Sie können uns wie folgt kontaktieren:</p>
<ul>
<li><a href="https://www.linkedin.com/in/herrphilipps">Philipp Müller (M.Eng.)</a>; Autor</li>
<li><a href="mailto:icampus@th-wildau.de">Prof. Dr. Janett Mohnke</a>; TH Wildau</li>
<li><a href="mailto:info@senseaition.com">Dr. Matthias Boldt, Jörg Oehmichen</a>; sense.AI.tion GmbH</li>
</ul>
<p>This work was funded by the European Regional Development Fund (EFRE) and the State of Brandenburg. Project/Vorhaben: “ProFIT: Natürlichsprachliche Dialogassistenten in der Pflege”.</p>
<p><img src="https://matthias.boldt.org/images/2022-11-28-Logos.jpg" alt="Logos" width="800" /></p>
</div>
</div><p>Der Beitrag <a href="https://senseaition.com/2023/01/06/automatisierung-von-dokumentationsaufgaben-in-der-pflege/">Automatisierung von Dokumentationsaufgaben in der Pflege</a> erschien zuerst auf <a href="https://senseaition.com">Sense.AI.tion GmbH</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Katheter, Sonde oder doch ein Zugang? Können Sprachassistenten die Pflege erleichtern?</title>
		<link>https://senseaition.com/2022/11/28/katheter-sonde-oder-doch-ein-zugang-koennen-sprachassistenten-die-pflege-erleichtern/</link>
		
		<dc:creator><![CDATA[sense.AI.tion]]></dc:creator>
		<pubDate>Mon, 28 Nov 2022 18:38:16 +0000</pubDate>
				<category><![CDATA[Allgemein]]></category>
		<category><![CDATA[Development]]></category>
		<category><![CDATA[Forschung]]></category>
		<category><![CDATA[KI Künstliche Intelligenz]]></category>
		<category><![CDATA[Software-Development]]></category>
		<category><![CDATA[cloud-computing]]></category>
		<category><![CDATA[Cloud-Software]]></category>
		<category><![CDATA[information retrieval]]></category>
		<category><![CDATA[Kubernetes]]></category>
		<category><![CDATA[Microservice]]></category>
		<category><![CDATA[multilingual]]></category>
		<category><![CDATA[Natural Language Processing]]></category>
		<category><![CDATA[NLP]]></category>
		<category><![CDATA[Pflege]]></category>
		<category><![CDATA[Semantische Suche]]></category>
		<category><![CDATA[sense.AI.tion]]></category>
		<category><![CDATA[sentence transformer]]></category>
		<category><![CDATA[smart assistant]]></category>
		<category><![CDATA[software-development]]></category>
		<category><![CDATA[Software-Entwicklung]]></category>
		<category><![CDATA[Sprachsteuerung]]></category>
		<guid isPermaLink="false">https://senseaition.com/?p=2301</guid>

					<description><![CDATA[<p>Es gibt viele Anwendungsfälle für Sprachanalysen, in denen der Kontext eine wesentliche Rolle spielt. Sind Menschen direkt betroffen, dann ist eine exakte Unterscheidung umso wichtiger … Gastbeitrag von Philipp Müller</p>
<p>Der Beitrag <a href="https://senseaition.com/2022/11/28/katheter-sonde-oder-doch-ein-zugang-koennen-sprachassistenten-die-pflege-erleichtern/">Katheter, Sonde oder doch ein Zugang? Können Sprachassistenten die Pflege erleichtern?</a> erschien zuerst auf <a href="https://senseaition.com">Sense.AI.tion GmbH</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="wpb-content-wrapper"><div id="vc_row-69dfd470cb19e" class="vc_row wpb_row vc_row-fluid thegem-custom-69dfd470cb1965962"><div class="wpb_column vc_column_container vc_col-sm-12 thegem-custom-69dfd470cb2788469" ><div class="vc_column-inner thegem-custom-inner-69dfd470cb279 "><div class="wpb_wrapper thegem-custom-69dfd470cb2788469">
	
		<div class="wpb_text_column wpb_content_element  thegem-vc-text thegem-custom-69dfd470cb3101919"  >
			<div class="wpb_wrapper">
				<h1>Katheter, Sonde oder doch ein Zugang? Können Sprachassistenten die Pflege erleichtern?</h1>

			</div>
			<style>@media screen and (max-width: 1023px) {.thegem-vc-text.thegem-custom-69dfd470cb3101919{display: block!important;}}@media screen and (max-width: 767px) {.thegem-vc-text.thegem-custom-69dfd470cb3101919{display: block!important;}}@media screen and (max-width: 1023px) {.thegem-vc-text.thegem-custom-69dfd470cb3101919{position: relative !important;}}@media screen and (max-width: 767px) {.thegem-vc-text.thegem-custom-69dfd470cb3101919{position: relative !important;}}</style>
		</div>
	

	
		<div class="wpb_text_column wpb_content_element  thegem-vc-text thegem-custom-69dfd470cb36b4910"  >
			<div class="wpb_wrapper">
				<div class="styled-subtitle">
<h2 id="es-gibt-viele-anwendungsfälle-für-sprachanalysen-in-denen-der-kontext-eine-wesentliche-rolle-spielt-sind-menschen-direkt-betroffen-dann-ist-eine-exakte-unterscheidung-umso-wichtiger--gastbeitrag-von-philipp-müllerhttpswwwlinkedincominherrphilipps"><em>Es gibt viele Anwendungsfälle für Sprachanalysen, in denen der Kontext eine wesentliche Rolle spielt. Sind Menschen direkt betroffen, dann ist eine exakte Unterscheidung umso wichtiger … Beitrag von <a href="https://www.linkedin.com/in/herrphilipps">Philipp Müller</a></em></h2>
</div>

			</div>
			<style>@media screen and (max-width: 1023px) {.thegem-vc-text.thegem-custom-69dfd470cb36b4910{display: block!important;}}@media screen and (max-width: 767px) {.thegem-vc-text.thegem-custom-69dfd470cb36b4910{display: block!important;}}@media screen and (max-width: 1023px) {.thegem-vc-text.thegem-custom-69dfd470cb36b4910{position: relative !important;}}@media screen and (max-width: 767px) {.thegem-vc-text.thegem-custom-69dfd470cb36b4910{position: relative !important;}}</style>
		</div>
	
<div class="clearboth"></div><style>#thegem-divider-69dfd470cb3a5 {margin-top: 50px !important;}</style><div id="thegem-divider-69dfd470cb3a5" class="gem-divider  " style="" ></div>
	
		<div class="wpb_text_column wpb_content_element  wpb_animate_when_almost_visible wpb_bottom-to-top bottom-to-top thegem-vc-text thegem-custom-69dfd470cb3d95915"  >
			<div class="wpb_wrapper">
				<div class="post__content small-body">
<p><em>Im Rahmen der Erstellung eines KI-Systems zur Informationssuche für die Pflege wurde ein spezielles IR (Information Retrieval) Modell entwickelt. Dieses System verbessert die zielgerichtete Suche in unstrukturierten Datenbeständen. Sowohl kurze, Keyword basierte Formulierungen als auch vollständige Fragen sind anwendbar. Mit dem entwickelten Ansatz konnte eine deutliche Verbesserung des Information Retrieval für Deutsch gegenüber bisherigen Ansätzen erreicht werden (um bis zu 14% Punkte).</em></p>
<h2 id="information-retrieval-als-basis-von-textsuche">Information Retrieval als Basis von Textsuche</h2>
<p>„Wie reinigt man den gelegten Zugang?“ Nun, eine Person nimmt sich einen Wischlappen, befeuchtet diesen und wischt die Tür von oben bis unten ab, bis der Dreck entfernt ist. Irgendwie passen Frage und Antwort nicht zusammen? Richtig, denn beim Lesen bzw. Interpretieren erscheint die Kombination aus „etwas legen + Zugang“ nicht stimmig, um eine Interpretation mit Zugang/Eingang/Tür zuzulassen. Mit etwas Vorwissen lässt sich schlussfolgern, dass der Kontext im Bereich der <strong>medizinischen Versorgung</strong> anzusiedeln ist. Konkret wird erfragt, wie der Katheter einer Person gereinigt werden kann, beispielsweise um diesen zu desinfizieren. Aber die Beweggründe sind eigentlich unwichtig, denn was viel mehr interessiert, ist die korrekte <strong>Kontextualisierung</strong> und korrekte Beantwortung der Nutzereingabe.</p>
<p><img class="alignnone" src="https://matthias.boldt.org/images/2022-11-28-pflege-scrabble.jpg" alt="Sprachanalyse in der Pflege" width="800" /><br />
<strong>Image by <a href="https://www.freepik.com/free-photo/women-s-day-written-scrabble-letters_11174803.htm#query=scrabble&amp;position=0&amp;from_view=search&amp;track=sph">Freepik</a></strong></p>
<p>Die eingangs formulierte Frage mittels einer gängigen Suchmaschine zu beantworten ist zwar prinzipiell möglich, sollte aufgrund der Auswirkungen auf Menschen (und insbesondere Patienten), jedoch auf einer selbst zusammengestellten <strong>Datenbasis</strong> mit entsprechendem <strong>Domäne-Wissen</strong> basieren. Dafür ist ein <strong>Information Retrieval (IR)</strong> System notwendig. Ein IR-System nutzt die Eingabe der Benutzer zum Abgleich mit Dokumenten in einer Datenbank, um die relevantesten Inhalte zu extrahieren und zu sortieren. Die Suche nach relevanten Inhalten hat sich dabei über Jahre hinweg wenig verbessert und basiert auf lexikalischen Ansätzen wie der statistischen Vorkommenshäufigkeit (z.B. TF-IDF, BM25), der Wortstammrückführung, Entfernung von „irrelevanten Worten“ aber auch simplen (Voll-)Text vergleichen.</p>
<p>Direkte Abgleiche, egal ob bei <strong>Schlüsselworten (Keywords), Wortgruppen</strong> oder im <strong>Volltext</strong>, haben ein generelles Problem: Sprache ist nicht eindeutig. Die Suchergebnisse ignorieren inhaltsmäßige Ähnlichkeiten. Verwenden Benutzer nicht „die richtigen Worte“, sondern <strong>Synonyme</strong> oder <strong>thematisch ähnliche Begriffe</strong>, kann es schnell zu falschen Ergebnissen kommen. Beispielsweise könnten die Domäne-Inhalte einer Pflege-Einrichtung ausschließlich fachsprachlich vorliegen, was bedeutet, dass in den Texten von „Sonde“, „Katheter“, etc. die Rede ist und der Begriff „Zugang“ gar nicht vorkommt. In diesem Fall kann keine der klassischen Suchmethoden zielgerichtet relevante Inhalte auffinden. Die möglichst große Übereinstimmung von Eingabeworten und verwendeten Begriffen in den Dokumenten der Datenbank ist zwingende Voraussetzung, egal welche lexikalische oder syntaktische Methode Anwendung findet.</p>
<h2 id="verbesserung-mit-ki-methoden">Verbesserung mit KI-Methoden</h2>
<p>Mit Aufkommen der aktuellen <strong>KI-Welle</strong> entwickelten sich in den letzten Jahren vielversprechende Ansätze, um dieses Problematik unter Nutzung von <strong>Machine Learning</strong>, respektive <strong>Deep Learning</strong>, zu minimieren. Die Einführung von „Transformer“, zu nennen sind hierbei vor allem BERT, XLM, und T5, ermöglichen es, <strong>Zusammenhänge von Worten</strong> (Ähnlichkeit, Analogie, Thematik) durch <strong>neuronale Sprachmodelle</strong> darzustellen. Ein solches Modell kann anschließend anhand von Trainingsdaten hinsichtlich eines Lernziels optimiert werden.</p>
<p><img src="https://matthias.boldt.org/images/2022-11-28-ai-technology-microchip-background-futuristic-innovation-technology-remix.jpg" alt="Sprachanalyse in der Pflege" width="800" /><br />
<strong>Image by <a href="https://www.freepik.com/free-photo/ai-technology-microchip-background-futuristic-innovation-technology-remix_16016701.htm#page=2&amp;query=ai&amp;position=23&amp;from_view=search&amp;track=sph">rawpixel.com</a> on Freepik</strong></p>
<p>In dem hier vorgestellten Fall gilt es, das Sprachmodell für die <strong>asymmetrische Suche</strong> zwischen einer Frage und beliebig vielen Textpassagen zu verfeinern (<em>fine tuning</em>). Die Suche ist asymmetrisch, weil eine relativ kurze Frage mit einer i.d.R. deutlich längeren Passage bzw. einem Textabsatz auf semantische Nähe untersucht wird. Im Training erlernt das Modell dabei anhand von Daten-Samples, bestehend aus Frage, der richtigen Antwort, einer falschen Antwort sowie einer Bewertung (<em>score</em>), zu priorisieren, welche Zusammenhänge zwischen Frage und Antwort besonders relevant (<em>attentions</em>) sind.</p>
<p style="padding-left: 40px;"><strong>Symmetrische Suche vs. Asymmetrische Suche</strong></p>
<p style="padding-left: 40px;">Sollen relevante Inhalte bei der <strong>symmetrischen Variante</strong> gefunden werden, so müssen Eingabesatz und die Sätze der Datenbank ungefähr gleich lang sein. Bestenfalls sind die Sätze sogar gleich aufgebaut, d.h. es wird die Eingabefrage mit ähnlichen Fragen abgeglichen. In einem FAQ-System kann dies hilfreich sein, da FAQs häufig je Textabschnitt mit einer Frage beginnen. <em>Beispiel: „Wie reinigt man den gelegten Zugang?“ <img src="https://s.w.org/images/core/emoji/17.0.2/72x72/2194.png" alt="↔" class="wp-smiley" style="height: 1em; max-height: 1em;" /> „Was mache ich bei der Reinigung des Katheters?“</em></p>
<p style="padding-left: 40px;">Gilt es relevante Inhalte mit der <strong>asymmetrischen Form</strong> zu finden, so sollten Eingabesatz und Datenbank-Sätze unterschiedlich lang, wobei dabei normalerweise letztere länger sind. Solche Suchsysteme kommen am häufigsten vor und auch das hier vorgestellte entspricht diesem Ansatz. <em>Beispiel: „Wie reinigt man den gelegten Zugang?“ <img src="https://s.w.org/images/core/emoji/17.0.2/72x72/2194.png" alt="↔" class="wp-smiley" style="height: 1em; max-height: 1em;" /> „Der hygienische Umgang mit einem Katheter ist enorm wichtig, um das Infektionsrisiko zu minimieren. Gehen Sie dabei wie folgt vor: (…)“</em></p>
<h2 id="training-des-modells-und-bewertung-der-ergebnisse">Training des Modells und Bewertung der Ergebnisse</h2>
<p>Die Durchführung des <strong>Trainings</strong> erfolgt unter Nutzung von <strong>Sentence Transformer</strong> mit der <strong>Margin-MSE-Loss-Methode</strong>. Auf Details des Trainings (Parameter, Dauer, Skripte) soll an dieser Stelle nicht eingegangen werden. Alles wissenswerte über den Datensatz und den Trainingsprozess wird ein einem separaten Artikel vorgestellt bzw. können diese Informationen schon jetzt auf Englisch über Huggingface Transformers, der wichtigsten Plattform zur Veröffentlichung von Transformer Modellen, eingesehen werden. Außerdem lässt sich das trainierte Modell von dort <a href="https://huggingface.co/PM-AI/bi-encoder_msmarco_bert-base_german">herunterladen (https://huggingface.co/PM-AI/bi-encoder_msmarco_bert-base_german)</a>.</p>
<p>Gleich nach dem Training ist eine Evaluierung des neu entstandenen Modells nötig. Nach einer Recherche hat sich zunächst der Vergleich zwischen drei Ansätzen angeboten, welcher in Tabelle 1 dargestellt ist.</p>

<table id="tablepress-ir_table_1" class="tablepress tablepress-id-ir_table_1">
<thead>
<tr class="row-1">
	<td class="column-1"></td><th class="column-2">Recall@1</th><th class="column-3">Recall@10</th><th class="column-4">Recall@100</th>
</tr>
</thead>
<tbody class="row-striping row-hover">
<tr class="row-2">
	<td class="column-1"><a href="https://huggingface.co/PM-AI/bi-encoder_msmarco_bert-base_german">Unser Modell <img src="https://s.w.org/images/core/emoji/17.0.2/72x72/1f3c6.png" alt="🏆" class="wp-smiley" style="height: 1em; max-height: 1em;" /></a></td><td class="column-2">0.5300</td><td class="column-3">0.7196</td><td class="column-4">0.7360</td>
</tr>
<tr class="row-3">
	<td class="column-1"><a href="https://huggingface.co/svalabs/bi-electra-ms-marco-german-uncased">svalabs/bi-electra-ms-marco-german-uncased</a></td><td class="column-2">0.3818</td><td class="column-3">0.5663</td><td class="column-4">0.5986</td>
</tr>
<tr class="row-4">
	<td class="column-1"><a href="https://www.elastic.co/guide/en/elasticsearch/reference/current/index-modules-similarity.html#bm25">BM25</a></td><td class="column-2">0.3196</td><td class="column-3">0.5377</td><td class="column-4">0.5740</td>
</tr>
</tbody>
</table>
TGM_PAGESPEED_LAZY_ITEMS_INGORED_BLOCK_2_3
<p><small>Tabelle 1: Ergebnis der Evaluierung. Auf einer Skala von 0.0 bis 1.0 werden die Ansätze nach der Metrik „Recall“ bewertet. Hierbei ist 1.0 der beste Wert.</small></p>
<p>Im Vergleich schneidet BM25, ein lexikalischer Ansatz, der in der Praxis noch häufig Verwendung findet, am schlechtesten ab. Im Evaluierungs-Datensatz befinden sich schlichtweg zu viele Frage-Antwort-Paare, die nur bei Verständnis von Synonymen und thematischer Ähnlichkeit korrekt miteinander in Verbindung gesetzt werden können. Das Modell von svalabs erlaubt dagegen den direkten Vergleich zwischen zwei sehr ähnlichen Ansätzen, da sowohl svalabs als auch das Modell von senseaition und der TH Wildau Transformer basiert sind. Im Ergebnis schneidet das neue Modell mit einer hervorragenden <strong>Performance-Steigerung um 14 Prozentpunkte</strong> ab.</p>
<p>Um die Qualität des hier vorgestellten Ansatzes zu untermauern, findet ein weiterer Vergleich mit einem aktuellen State-Of-The-Art Modell statt: Das Entwickler-Team von deepset.ai hat, nach der DPR-Methode, einen Zwei-Stufen-Transformer für Deutsch entwickelt, bei dem Fragen und Texte/Passagen separat behandelt werden. Die erweiterten Ergebnisse sind in Tabelle 2 abgebildet.</p>

<table id="tablepress-ir_table_2" class="tablepress tablepress-id-ir_table_2">
<thead>
<tr class="row-1">
	<td class="column-1"></td><th class="column-2">Recall@1</th><th class="column-3">Recall@10</th><th class="column-4">Recall@100</th>
</tr>
</thead>
<tbody class="row-striping row-hover">
<tr class="row-2">
	<td class="column-1"><a href="https://huggingface.co/PM-AI/bi-encoder_msmarco_bert-base_german">Unser Modell <img src="https://s.w.org/images/core/emoji/17.0.2/72x72/1f3c6.png" alt="🏆" class="wp-smiley" style="height: 1em; max-height: 1em;" /></a></td><td class="column-2">0.5300</td><td class="column-3">0.7196</td><td class="column-4">0.7360</td>
</tr>
<tr class="row-3">
	<td class="column-1"><a href="https://huggingface.co/deepset/gbert-base-germandpr-query_encoder">deepset/gbert-base-germandpr-query_encoder</a><br />
&amp;<br />
<a href="https://huggingface.co/deepset/gbert-base-germandpr-ctx_encoder">deepset/gbert-base-germandpr-ctx_encoder</a></td><td class="column-2">0.4828</td><td class="column-3">0.6970</td><td class="column-4">0.7147</td>
</tr>
<tr class="row-4">
	<td class="column-1"><a href="https://huggingface.co/svalabs/bi-electra-ms-marco-german-uncased">svalabs/bi-electra-ms-marco-german-uncased</a></td><td class="column-2">0.3818</td><td class="column-3">0.5663</td><td class="column-4">0.5986</td>
</tr>
<tr class="row-5">
	<td class="column-1"><a href="https://www.elastic.co/guide/en/elasticsearch/reference/current/index-modules-similarity.html#bm25">BM25</a></td><td class="column-2">0.3196</td><td class="column-3">0.5377</td><td class="column-4">0.5740</td>
</tr>
</tbody>
</table>
TGM_PAGESPEED_LAZY_ITEMS_INGORED_BLOCK_3_4
<p><small>Tabelle 2: Ergebnis der Evaluierung. Auf einer Skala von 0.0 bis 1.0 werden die Ansätze nach der Metrik „Recall“ bewertet. Hierbei ist 1.0 der beste Wert.</small></p>
<p>Auch wenn die <strong>Performance-Steigerung mit ca. 2 Prozentpunkten</strong> kleiner ausfällt, ist das Ergebnis dennoch beeindruckend. Denn beim Ansatz von deepset werden zwei Modelle gebraucht, was Arbeitsspeicher und CPU-Leistung doppelt beansprucht und somit höhere Kosten verursacht. Im Produktiveinsatz kann dies entscheidend sein.</p>
<p><strong>Die Ergebniswerte dürfen jedoch nicht als absolute Werte betrachtet werden!</strong> Je nach Testdaten und Domäne können die Werte variieren. Dennoch ist die Evaluierung im Vergleich der Ansätze untereinander valide. Übrigens, Experimente haben die Sinnhaftigkeit einer Kombination von BM25 mit Transformer-Modellen bewiesen. Entsprechende Erkenntnisse, KI getriebene Dienste und das technische Know-How bietet Ihnen die sense.AI.tion GmbH über eine eigens entwickelte Cloud-Produktpalette.</p>
<hr />
<p>Dieses Projekt ist eine Kollaboration zwischen der <a href="https://www.th-wildau.de/">Technischen Hochschule Wildau</a> und <a href="https://senseaition.senseaition.rocks">sense.ai.tion GmbH</a>. Sie können uns wie folgt kontaktieren:</p>
<ul>
<li><a href="https://www.linkedin.com/in/herrphilipps">Philipp Müller (M.Eng.)</a>; Autor</li>
<li><a href="mailto:icampus@th-wildau.de">Prof. Dr. Janett Mohnke</a>; TH Wildau</li>
<li><a href="mailto:info@senseaition.com">Dr. Matthias Boldt, Jörg Oehmichen</a>; sense.AI.tion GmbH</li>
</ul>
<p>This work was funded by the European Regional Development Fund (EFRE) and the State of Brandenburg. Project/Vorhaben: “ProFIT: Natürlichsprachliche Dialogassistenten in der Pflege”.</p>
<p><img src="https://matthias.boldt.org/images/2022-11-28-Logos.jpg" alt="Logos" width="800" /></p>
</div>
<div class="post__footer"></div>

			</div>
			<style>@media screen and (max-width: 1023px) {.thegem-vc-text.thegem-custom-69dfd470cb3d95915{display: block!important;}}@media screen and (max-width: 767px) {.thegem-vc-text.thegem-custom-69dfd470cb3d95915{display: block!important;}}@media screen and (max-width: 1023px) {.thegem-vc-text.thegem-custom-69dfd470cb3d95915{position: relative !important;}}@media screen and (max-width: 767px) {.thegem-vc-text.thegem-custom-69dfd470cb3d95915{position: relative !important;}}</style>
		</div>
	
<div class="clearboth"></div><style>#thegem-divider-69dfd470cbae5 {margin-top: 60px !important;}</style><div id="thegem-divider-69dfd470cbae5" class="gem-divider  " style="" ></div>
	
		<div class="wpb_text_column wpb_content_element  wpb_animate_when_almost_visible wpb_bottom-to-top bottom-to-top thegem-vc-text thegem-custom-69dfd470cbb201843"  >
			<div class="wpb_wrapper">
				<p><em>Dieser Artikel erschien zuerst auf <a href="https://matthias.boldt.org/post/2022-11-28-katheter-sonde-oder-doch-ein-zugang/">https://matthias.boldt.org/post/2022-11-28-katheter-sonde-oder-doch-ein-zugang/</a></em></p>

			</div>
			<style>@media screen and (max-width: 1023px) {.thegem-vc-text.thegem-custom-69dfd470cbb201843{display: block!important;}}@media screen and (max-width: 767px) {.thegem-vc-text.thegem-custom-69dfd470cbb201843{display: block!important;}}@media screen and (max-width: 1023px) {.thegem-vc-text.thegem-custom-69dfd470cbb201843{position: relative !important;}}@media screen and (max-width: 767px) {.thegem-vc-text.thegem-custom-69dfd470cbb201843{position: relative !important;}}</style>
		</div>
	
</div></div></div></div>
</div><p>Der Beitrag <a href="https://senseaition.com/2022/11/28/katheter-sonde-oder-doch-ein-zugang-koennen-sprachassistenten-die-pflege-erleichtern/">Katheter, Sonde oder doch ein Zugang? Können Sprachassistenten die Pflege erleichtern?</a> erschien zuerst auf <a href="https://senseaition.com">Sense.AI.tion GmbH</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
