MP-Law-Logo weiß

LEISTUNGSABWEICHUNGEN UND KÜNSTLICHE INTELLIGENZ

bau aktuell, Heft 3, 10.6.2024

18. Juli 2024

Nochmals: Leistungsabweichungen und künstliche Intelligenz

Rechtlicher Kontext und Möglichkeiten der Überprüfung

Abstract
In der letzten Ausgabe von bauaktuell behandelte diese Rubrik die Antwortqualität von KI-Chatbots im Zusammenhang mit bauwirtschaftlichen Fragestellungen. (FN 1) Aufgrund des potenziellen Risikofaktors, unvollständige oder falsche automatisch generierte Inhalte zu übernehmen, diskutiert dieser Beitrag die Folgen aus rechtlicher Sicht, wenn unreflektiert Texte von KI-Chatbots übernommen werden. Wie Texte auf deren Originalität überprüft werden können, stellt der Beitrag abschließend vor. Damit werden die Sensibilisierung und der zielgerichtete Einsatz von KI-Chatbots im aktuellen Entwicklungsstand sichergestellt.

Text
1. Juristischer Kommentar zur letzten Ausgabe
1.1. Rechtlicher Rahmen bei Gutachten mit künstlicher Intelligenz
Der zitierte Beitrag in der letzten Ausgabe veranschaulichte die aktuell mit dem Einsatz von KI-Chatbots verbundenen Risiken bei der Erstellung von Sachverständigengutachten (im konkreten Fall aus dem Fachbereich Bauwirtschaft). Die grundlegende Problematik ist generell auf den Einsatz derartiger Systeme bei der Erstellung von Sachverständigengutachten übertragbar. Ein Gutachten, das unreflektiert die Antworten auf die gestellten Fachfragen übernommen hätte, wäre fehlerhaft gewesen und hätte qualitativ nicht den Anforderungen an ein sorgfältig erstelltes Gutachten entsprochen. Unter Umständen hätte es wohl zu einer Haftung des Sachverständigen geführt, sofern sich aus unrichtigen Passagen ein Schaden ergeben hätte.

Dazu vorab: Der Einsatz innovativer KI-Chatbots wirft gerade im Bereich der Haftung zahlreiche neue Fragestellungen auf. Wer haftet für den Schaden, den die künstliche Intelligenz (im Folgenden: KI) verursacht hat? Derjenige, der sie einsetzt und davon profitiert? Derjenige, der sie programmiert hat? Oder schlicht gar niemand? Die Diskussion dieser Fragen rund um die Haftung beim Einsatz von KI beschäftigt aktuell zahlreiche Juristen. (FN 2) Insbesondere die Analyse, ob mit bestehenden Haftungskonzepten (wie etwa der Vertragshaftung, der Erfüllungsgehilfenhaftung, der Produkthaftung) das Auslangen gefunden werden kann oder aber neue Haftungssysteme de lege ferenda zu fordern sind, ist in vollem Gang (und wird durchaus kontroversiell gesehen). (FN 3) So wird etwa die Überlegung angestellt, die KI selbst in Form eines neuen Rechtskonstrukts, einer sogenannten elektronischen Person (e-Person), haften zu lassen. (FN 4)

In der hier angestellten Diskussion geht es aber um die Frage der Haftung des Sachverständigen, der die KI nutzt, um sein Gutachten zu erstellen. Ein Schaden beim Besteller des Gutachtens wird von diesem aufgrund der vertraglichen Beziehung gegenüber dem Sachverständigen, nicht aber gegenüber einer KI geltend gemacht. Inwieweit sich der Sachverständige in der Folge (beispielsweise analog zu den Regelungen der Gehilfenhaftung bei der KI bzw ihrem Hersteller bzw Programmierer) regressieren kann, ist nicht Gegenstand dieses Beitrags.

Aus § 1299 ABGB ergibt sich der Haftungsmaßstab von Sachverständigen im Allgemeinen. Der Sorgfaltsmaßstab ist gegenüber der allgemeinen Bestimmung des § 1297 ABGB erhöht, da bei Sachverständigen nicht auf den gewöhnlichen Grad an Aufmerksamkeit und Fleiß abzustellen ist, sondern auf den für die jeweilige übernommene Tätigkeit notwendigen Fleiß. Es ist somit nicht die Sorgfalt eines Durchschnittsmenschen maßgebend, sondern die übliche Sorgfalt von Personen, die derartige Tätigkeiten ausüben. (FN 5) Der Sorgfalts- und Wissensstandard richtet sich nach dem Leistungsstandard der jeweiligen Berufsgruppe. (FN 6) Ist die jeweilige Berufsgruppe bestimmt, hat ein Sachverständiger jene Sorgfalt einzuhalten, die ein verantwortungsbewusster und gewissenhafter Sachverständiger in der jeweiligen Position eingehalten hätte. (FN 7)

Der Sachverständige haftet auch für die Richtigkeit seines Gutachtens nach dem erhöhten Sorgfaltsmaßstab des § 1299 ABGB. Maßstab ist nicht die spezifische individuelle Erfahrung eines Mitglieds einer bestimmten Untergruppe eines Berufszweigs, sondern das durchschnittliche in
der Branche zu erwartende Wissen. Aufgrund des objektiven Verschuldensmaßstabs hat der Sachverständige für die typischen Fähigkeiten seines Berufsstands einzustehen. Ob dieser Sorgfaltsmaßstab eingehalten wurde, ist in der Regel eine Einzelfallfrage.

Legt ein Sachverständiger in seinem Gutachten dessen Tauglichkeit zu einem bestimmten Zweck offen, so haftet er auch dafür, dass das Gutachten für diesen Zweck geeignet ist und diesen Anforderungen entspricht. Der Maßstab, an dem die Tauglichkeit und die Richtigkeit des Gutachtens zu prüfen sind, wird durch den aus dem Gutachten ersichtlichen Gutachtensauftrag definiert. Aus ihm ergibt sich auch, welche Interessen Dritter geschützt sind. (FN 8)

Gerichtlich bestellte Sachverständige haben für die Gutachtenserstattung eine geeignete Methode auszuwählen. (FN 9) Hierfür maßgeblich ist der zum Zeitpunkt der Gutachtenserstellung in einem Fachbereich herrschende Wissensstand. Solange in einem Fachbereich keine einhellige Lehrmeinung zu einer gewissen Methode besteht und divergierende Standpunkte vertreten werden, ist der Einsatz der gewählten Methode als fachgerecht zu beurteilen. (FN 10) Welche Methoden eingesetzt werden dürfen, ergibt sich aus RIS-Justiz RS0119439: “Bei der Beweisaufnahme durch Sachverständige ist es deren Aufgabe, aufgrund ihrer einschlägigen Fachkenntnisse jene Methode auszuwählen, die sich zur Klärung der nach dem Gerichtsauftrag jeweils maßgebenden strittigen Tatfrage(n) am besten eignet; andernfalls verhinderte das Gericht, dem es an der notwendigen Fachkunde zur Lösung der durch Sachverständige zu beurteilenden Tatfragen mangelt, die Fruchtbarmachung spezifischen Expertenwissens. Das Gericht hat daher Sachverständigen die im Zuge der Auftragserledigung anzuwendende(n) Methode(n) im Allgemeinen nicht vorzuschreiben, gehört doch die Methodenwahl zum Kern der Sachverständigentätigkeit.” Weiters ist es “Aufgabe des Sachverständigen, aufgrund der einschlägigen Fachkenntnisse jene Methode auszuwählen, die sich zur Klärung der nach dem Gerichtsauftrag jeweils maßgebenden strittigen Tatfragen am besten eignet.” (FN 11)

Ein gerichtlich bestellter Sachverständiger, der in einem Zivilprozess schuldhaft ein unrichtiges Gutachten abgibt, haftet den Prozessparteien gegenüber für die Folgen dieses Versehens. Der Schadenersatzanspruch setzt voraus, dass die Unrichtigkeit des Gutachtens ausschlaggebend für die Entscheidung des Gerichts war. (FN 12)

Ausgangspunkt der Frage der Sachverständigenhaftung ist daher stets, ob ein falsches Gutachten vorliegt. (FN 13)

Ein Gutachten ist falsch,

– wenn es nicht nach den Erkenntnismethoden einer anerkannten Schule der jeweiligen Wissenschaft erstellt wurde;

– wenn es unvollständig ist, den Denkgesetzen widerspricht oder sonst unschlüssig ist;

– wenn die Tatsachen mangelhaft erhoben worden sind oder wesentliche Befundergebnisse außer Acht gelassen wurden;

– wenn es zB Rechen- oder Kalkulationsfehler enthält;

– wenn es auf veralteten wissenschaftlichen Erkenntnissen beruht oder nicht dem aktuellen Stand der Wissenschaft und Technik entspricht. (FN 14)

Produziert die KI daher Ergebnisse, die dazu führen, dass ein Gutachten im oben angeführten Sinn falsch ist, haftet der Sachverständige, sofern daraus ein Schaden eingetreten ist und der Sachverständige auch rechtswidrig gehandelt hat. Damit ganz allgemein ein rechtwidriges Verhalten zum Schadenersatz führt, muss die übertretene Verhaltenspflicht gerade den entstandenen Schaden vermeiden wollen (Schutzzweck der Norm). (FN 15) Verstößt der Sachverständige gegen eine Rechtsnorm oder gegen einen Vertrag (Gutachtensauftrag), liegt eine Rechtswidrigkeit vor. Bei Vertragsverletzungen haftet der Sachverständiger für jene beeinträchtigten Interessen des Gläubigers, deren Schutz die übernommene Vertragspflicht bezweckt. (FN 16)

Zudem muss der Sachverständige schuldhaft handeln, um einen Schadenersatzanspruch zu begründen. Für das Verschulden genügt leichte Fahrlässigkeit. Ob ein Verschulden überhaupt vorliegt, bemisst sich am geschuldeten Sorgfaltsmaßstab. Wie bereits oben ausgeführt, unterliegen Sachverständige dem erhöhten Sorgfaltsmaßstab des § 1299 ABGB.

1.2. Beispiel
Aktuell ist davon auszugehen, dass mit dem Einsatz von KI-Chatbots ein erhebliches Risiko im Hinblick auf Qualität und Richtigkeit der mittels KI-Chatbots generierten Informationen verbunden ist. Der Sachverständige, der solche Methoden nutzt, muss Ergebnisse der KI mit höchster Sorgfalt überprüfen und kritisch hinterfragen, um Fehler zu erkennen und zu korrigieren. Die Ergebnisse eines KI-Chatbots zu spezifischen Fachfragen sind keinesfalls vergleichbar mit den Ergebnissen einer fundierten Literaturrecherche oder den Aussagen eines Fachartikels. Die unreflektierte Übernahme von Antworten eines KI-Chatbots mit offenem Datenpool durch einen Sachverständigen wird daher aktuell nicht als sorgfältig zu qualifizieren sein, da davon auszugehen ist, dass der maßgerechte Fachmann (Sachverständiger aus einem spezifischen Fachbereich) nicht so handeln würde.

Nehmen wir ein Beispiel aus dem Beitrag im letzten Heft:

“Bei der Berechnung der zusätzlichen Baustellengemeinkosten werden ebenfalls keine Rechenschritte bzw Zwischenergebnisse angegeben. Hier erhält man jedoch – im Gegensatz zu den Stillstandskosten der produktiven Arbeiter – ein falsches Ergebnis. Vermutlich werden die monatlichen Baustellengemeinkosten fälschlicherweise auf Kalendertage umgelegt und dann mit Arbeitstagen multipliziert:

10.000 €/Mo ÷ 30 KT/Mo x 7 AT = 2.333 €.” (FN 17)

Der Sachverständige, der zur Beantwortung der hier gestellten Frage einen KI-Chatbot einsetzt, muss die Ergebnisse nachvollziehen und überprüfen. Übersieht er etwa den beschriebenen Rechenfehler, haftet er für die unrichtigen Gutachtensergebnisse und einen allenfalls daraus entstehenden Schaden (etwa wenn ein Gericht das Gutachten zur Feststellung eines Anspruchs auf Mehrkosten auf die falsch generierten Zahlen stützt).

2. Überprüfbarkeit von automatisierten Texten
2.1. Vorbemerkung
Durch die rasante Entwicklung der KI-Chatbots und deren leistungsstarke Modelle wird es immer schwerer, künstlich generierten Text von menschlich geschriebenem Text zu unterscheiden.

Durch das regelmäßige Arbeiten mit KI-Chatbots entwickelt der Anwender eine Sensibilität bezüglich automatisiert generierter Texte. Insbesondere ist anzuerkennen, dass jede Branche einen spezifischen Sprachstil mit entsprechendem Vokabular entwickelt, der in dieser Differenziertheit von generalistischen Systemen wie ChatGPT nicht abgebildet werden kann.

2.2. Überprüfungsmöglichkeiten
Am Markt befinden sich mittlerweile eine Vielzahl von Werkzeugen, die ähnlich Plagiatscheckern Texte auf Originalität eines Menschen überprüfen. Die Auswahl und die Qualität der cloudbasierten Werkzeuge für die englische Sprache sind dabei wesentlich größer; für den deutschen Sprachraum finden sich nur ausgewählte Anwendungen. Die getesteten Werkzeuge in Deutsch sind in Abbildung 1 angegeben.

Grundsätzlich können künstlich generierte Texte durch folgende Merkmale qualitative überprüft werden:

– tautologische oder wiederholende Phrasen;

– für die Fachbranche unnatürliche Redewendungen, Vokabulare oder Satzstellungen;

– fehlende inhaltliche Tiefe oder Redundanz;

– fehlerfreie grammatikalische Ausführung;

– geringe Variation in Satzzeichen und Satzlänge;

– unzusammenhängende Information;

– Halluzinationen und falsche Inhalte.

2.3. Erkennungsverfahren im Überblick
Die Verfahren lassen sich in fünf Bereiche einteilen: Es kommen statistische Klassifizierungsverfahren, deep learning, Zero-shot-Verfahren, Kompressionsverfahren und Kennzeichnungsverfahren zum Einsatz. (FN 18) Verbreitete Erkennungsverfahren bedienen sich zumeist aus einer Kombination von statistischen und Deep-learning-Verfahren:

Statistische Verfahren werden beim klassischen maschinellen Lernen eingesetzt. Dabei werden sogenannte Features aus den Trainingsdaten gebildet, die Text von Menschen und Maschine enthalten. Es handelt sich dabei um quantitative Charakteristika wie beispielsweise die Wortanzahl eines Satzes. Es werden jedoch auch komplexere Features wie die Verhältnisse von gewissen Eigenschaften eines Textes gebildet. Beispielsweise werden die Wortdiversität, das Gefühl, die Neutralität und die Absichtslosigkeit gemessen. Die gebildeten Charakteristika werden in einer Kombination herangezogen, um generierte Texte zu bewerten. Zwei solche Kennzahlen sind die burstiness und die perplexity, die unter anderem vom KI-Erkennungswerkzeug ZeroGPT verwendet werden. Bei der burstiness wird der Versuch unternommen, die Variabilität von Satzlänge, vorkommenden Wörtern und Satzstellungen zu messen, die bei menschlichen Texten ausgeprägter ist. Perplexity beschreibt eine Wahrscheinlichkeit, dass eine Sequenz von einem Modell generiert wurde.

Bei Deep-learning-Verfahren wird aus einem Trainingsdatensatz, der aus künstlich und menschlich generierten Texten besteht, ein neuronales Netz gebildet. Der Trainingsdatensatz besteht dabei aus einer großen Menge an Texten, die eindeutig als KI-generiert oder menschlich geschrieben kategorisiert werden. Im Vergleich zu statistischen Verfahren werden dabei die Features vom neuronalen Netz selbst erlernt und bestimmt. Das Klassifizierungsverfahren von OpenAI wurde auf Grundlage dieses Systems entwickelt, jedoch bereits wieder eingestellt.

3. Fallbeispiel
3.1. Selbsttest
3.1.1. Vorbemerkung
Der interessierte Leser kann sich nun einem Selbsttest unterziehen. Die zwei zu überprüfenden Textpassagen stammen aus dem Beitrag in der letzten Ausgabe. Eine Passage wurde dabei von zwei Fachexpertinnen aus der Baubranche verfasst, der andere Text zu 100 % ohne Nachbearbeitung von einem KI-Chatbot erzeugt. Lesen Sie die beiden zu überprüfenden Texte und entscheiden Sie selbst, welcher Text wie kategorisiert werden kann. Im Anschluss finden Sie die Ergebnisse der Bewertungswerkzeuge in Abbildung 1 angezeigt.

3.1.2. Geprüfte Textpassage 1
“Um die Verzugszinsen gemäß ÖNORM B 2110 zu berechnen, benötigen wir den anwendbaren Zinssatz. Die ÖNORM B 2110 legt fest, dass bei Zahlungsverzug Verzugszinsen anfallen, jedoch ist der genaue Zinssatz, der angewendet werden soll, oft im Vertrag festgelegt oder richtet sich nach dem gesetzlichen Zinssatz für Verzugszinsen.

In Ermangelung einer spezifischen Vereinbarung im Vertrag könnte der gesetzliche Zinssatz für Geschäftsverkehr in Österreich Anwendung finden, der in der Regel deutlich über dem Basiszinssatz liegt. Ohne einen spezifischen Zinssatz aus dem Vertrag zu kennen, nehmen wir als Beispiel den gesetzlichen Zinssatz für Verzugszinsen im geschäftlichen Verkehr, der in Österreich häufig 8 Prozentpunkte über dem Basiszinssatz liegt.”

3.1.3. Geprüfte Textpassage 2
“Der Beitrag veranschaulicht die Stärken und Schwächen von KI-Chatbots bei bauwirtschaftlichen Fragestellungen. BauwirtschaftsexpertInnen können bereits heute mit der Standardkonfiguration von KI-Chatbots bei der Findung von Lösungsansätzen unterstützt werden. Eine in der Bauwirtschaft erforderliche genaue Recherche mit branchenüblicher Semantik und konsequenter Quellenangabe ist derzeit nicht möglich.

Die generierten Briefvorlagen weisen einen formellen sowie höflichen Stil auf und sind für die Geschäftskorrespondenz gut geeignet. Der Aufbau und die Formatierung ermöglichen eine schnelle Finalisierung, wobei eine kritische Überprüfung auf Vollständigkeit und Richtigkeit unabdingbar ist.

Bei Berechnungen werden die einzelnen Rechenschritte angeführt und fehlende Informationen durch Annahmen ergänzt, welche als solche gekennzeichnet werden. Kombinierte Aufgaben, die beispielsweise eine Unterscheidung von Kalendertagen und Arbeitstagen erforderlich machen, werden durch die KI-Chatbots nicht korrekt gelöst.

Die rasante Entwicklung der KI-Chatbots muss für den zielgesicherten Einsatz in der Bauwirtschaft durch eine kontinuierliche Bewertung von ExpertInnen begleitet werden, um zukünftig eine zuverlässige respektive vertrauenswürdige Arbeitserleichterung schaffen zu können. Dazu wird es auch notwendig sein, dass eine Interaktion durch aktives Fragen bei fehlenden Informationen oder Unsicherheiten seitens der Bots stattfindet. Eine weitere Verbesserung würde die Vorgabe bzw Einschränkung auf verlässliche Quellen darstellen.

Allgemein täuschen die Antworten durch das hohe sprachliche Niveau über unvollständige oder auch falsche Inhalte hinweg. Antworten, welche unreflektiert oder aus Bequemlichkeit übernommen werden, stellen einen potenziellen Risikofaktor dar. BauwirtschaftsexpertInnen können daher durch KI-Chatbots in naher Zukunft nicht ersetzt werden.”

3.2. Ergebnis
Im Zuge des Fallbeispiels wurden einige System geprüft, die in Abbildung 1 zusammengestellt sind. Die Prozentsätze geben an, wie das jeweilige System den Text auf deren Anteil an künstlich generierten Textanteilen eingeschätzt hatte. Dabei ist zu erkennen, dass von den neun herangezogenen Programmen nur drei Programme mit einer Trefferquote größer 96 % reüssieren konnten. Diese wurde berechnet aus der Kombination der Einzelerkennungen, dass Textpassage 1 künstlich und Textpassage 2 menschlich erstellt wurde. Durchschnittlich wurde der künstlich generierte Text nur zu 49 % erkannt und die menschlich verfasste Passage zu 26 % als künstlich generiert angenommen. Anzumerken ist, dass dieser Fall keine vermischten Texte enthält, die noch komplizierter zu identifizieren wären. Die Erkennungsquote von 49 % beim 100 % automatisch erzeugten Text ist schlechter, als wenn ein Münzwurf angewendet worden wäre.

AI-Checker Textpassage 1 (100 % KI) Textpassage 2 (0 % KI) Trefferquote
Crossplag.com 100 % 0 % 100 %
ZeroGPT.com 100 % 0 % 100 %
Originality.ai 99 % 3 % 96 %
Smodin.io 25 % 0 % 25 %
Aihumanize.com 5 % 9 % 5 %
Detecting-ai.com 6 % 15 % 5 %
Neuralwriter.com 5 % 30 % 4 %
Plagiarismdetector.ne 0 % 80 % 0 %
Copyleaks.com 100 % 100 % 0 %

Originality.ai, gibt innerhalb der Testung den Hinweis darauf, wie die “falsch-positiven” Ergebnisse herabgesetzt werden können. (FN 19) Das sind jene Ergebnisse, die als KI-generiert erkannt werden, jedoch in Wirklichkeit ohne Hilfsmittel von einer Person geschrieben wurden.

Es ist zu beachten, dass keine Werkzeuge zum Generieren, Anpassen, Übersetzen oder zur Planung des Inhalts verwendet worden sind. Beispiele dafür sind Grammarly, (FN 20) Microsoft Word Editor oder Übersetzungswerkzeuge wie DeepL. (FN 21) Auch wenn der Inhalt nur automatisch angepasst wurde. Weiters wird darauf hingewiesen, dass kleinere Ausschnitte (so wie in diesem Fallbeispiel) oder Texte mit standardisiertem Aufbau schlechtere Ergebnisse liefern können. Beispiele dafür sind Zusammenfassungen oder Einleitungen und Briefformen.

Besondere Sensibilität bei Testungen ist demnach bei

– kurzen Inhalten,

– akademischen Texten,

– öffentlich zugänglichen Werken und

– standardisierten Aufbauten von Schriftstücken

gegeben.

Das Unternehmen von ChatGPT (OpenAI) hat selbst ein Werkzeug zur Klassifizierung von Texten mit KI entwickelt, das aufgrund der schlechten Ergebnisse am 20. 7. 2023 wieder stillgelegt wurde. Auf der Website ist zu lesen, dass 26 % aller komplett generierten Texte nur als wahrscheinlich KI-generiert erkannt wurden und Texte von Personen zu 9 % inkorrekt als KI-generiert eingestuft wurden. (FN 22) Auf diversen Seiten der getesteten Werkzeuge aus Abbildung 1 ist zu lesen, dass die Ergebnisse der Klassifizierung nicht ausschließlich für die Bewertung herangezogen werden sollen und mit anderen Tools und qualitativen Methoden quergeprüft werden müssen. Elkhatat/Elsaid/Almeer evaluierten die Effizienz von den KI-Klassifizierungswerkzeugen und kamen zum Schluss, dass “KI-Erkennungstools zwar einige Erkenntnisse liefern können, doch ihre uneinheitliche Leistung und ihre Abhängigkeit von der Ausgereiftheit der KI-Modelle einen ganzheitlicheren Ansatz für Integritätsprüfungen erforderlich machen. Dabei sollen KI-Tools mit manueller Überprüfung und kontextbezogenen Überlegungen kombiniert werden.” (FN 23) Die Aussagen decken sich mit dem gegenständlichen Fallbeispiel.

Notiz
Fazit
Der Einsatz von KI ist insbesondere in Gerichtsgutachten mit großer Zurückhaltung zu sehen und bedarf sorgfältiger Kontrolle, vor allem wenn es um konkrete Antworten zu speziellen Fragestelllungen geht. Anderes mag allenfalls gelten, wenn die KI verwendet wird, um einen Überblick über einschlägige Literatur zu geben oder Textbausteine zu formulieren. Bei diesen Anwendungsfällen ist die Risikogeneigtheit im Hinblick auf potenzielle Schadensverursachung wohl geringer. Bei der Subsumtion von Problemen aus dem untersuchten Fachbereich unter Lösungssätze (oder im Rechtsbereich unter konkrete Normen und Rechtsprechung) ist der Einsatz von KI-Chatbots hingegen kritisch zu sehen. (FN 24) In diesem Zusammenhang helfen wohl auch Disclaimer oder sonstige Haftungsausschlüsse nicht. Es ist kaum vorstellbar, dass ein Besteller eines Gutachtens einen Haftungsausschluss dahin gehend akzeptieren würde, dass der Sachverständige für die Ergebnisse, die mithilfe eines KI-Chatbots erarbeitet werden, keine Haftung übernimmt.

Literaturstudien sowie das gegenständliche Fallbeispiel zeigen die geringe Treffsicherheit bei der Erkennung von künstlich generierten Texten. Die bisherigen Ansätze konzentrieren sich auf gewisse large language models (LLM) und ältere GPT-Versionen und erzeugen deshalb oft falsche positive Erkennungen, was dazu führte, dass bereits einige Erkennungssysteme wieder aus dem Internet genommen wurden. Beispiele dafür sind das Klassifizierungssystem von OpenAI oder CheckforAi. Grundsätzlich ist es demnach empfehlenswert, unterschiedliche Klassifizierungssysteme einzusetzen und insbesondere sich selbst hinsichtlich der Texte im Zusammenhang mit der inhaltlichen Richtigkeit zu sensibilisieren.

Der Artikel von Katharina Müller und Leopold Winkler erschien am 10.06.2024 in der bau aktuell.

Fußnote(n)
1)
Steinschaden/L. Winkler, Leistungsabweichungen und künstliche Intelligenz, bauaktuell 2024, 68.

2)
Gorzala, Europäisches Haftungssystem für Künstliche Intelligenz-Systeme, RdW 2023, 11; Ress, Maschinenbewusstsein durch Künstliche Intelligenz und die Auswirkungen auf das Europarecht und Völkerrecht, ZÖR 2023, 395 (406); Wolfbauer, Bad Robot – wer ist verantwortlich, wenn KI versagt? ecolex 2023, 105.

3)
Palmstorfer, Der AI Act: Europas Gesetz über Künstliche Intelligenz in den Startlöchern, jusIT 2024, 1; Staudegger, Der Europäische Weg zur Regulierung Künstlicher Intelligenz – wie KI die Rechtswissenschaften fordert, jusIT 2023, 2 (4 ff).

4)
Scheufen, Künstliche Intelligenz und Haftungsrecht: die e-Person aus ökonomischer Sicht, Wirtschaftsdienst 2019, 411; Herda, Artificial Intelligence und Immaterialgüterrecht, WBl 2019, 305 (312).

5)
Karner in P. Bydlinski/Perner/Spitzer, ABGB7 (2023) § 1299 Rz 1.

6)
Wittwerin Schwimann/Neumayr, ABGB-Taschenkommentar6 (2024) § 1299 Rz 3.

7)
Pateter, Die Krisenwarnpflichten der Rechts- und Wirtschaftsberater (2018) Kap 1.5.1; RIS-Justiz RS0026489.

8)
OGH 25. 1. 2017, 7 Ob 224/16s.

9)
Wittwerin Schwimann/Neumayr, ABGB-Taschenkommentar6, § 1299 Rz 22.

10)
OGH 30. 7. 2015, 10 Ob 50/15y.

11)
RIS-Justiz RS0119439 (T2).

12)
RIS-Justiz RS0026360.

13)
Schacherreiter in Kletečka/Schauer, ABGB-ON1.09, § 1299 Rz 77; vgl auch OGH 9. 7. 2014, 2 Ob 106/14y, ecolex 2014/435 (Schoditsch).

14)
Attlmayr in Attlmayr/Walzel von Wiesentreu, Sachverständigenrecht3 (2021) Rz 9.028.

15)
Wittwerin Schwimann/Neumayr, ABGB-Taschenkommentar6, § 1294 Rz 6.

16)
Wittwerin Schwimann/Neumayr, ABGB-Taschenkommentar6, § 1294 Rz 8.

17)
Steinschaden/L. Winkler, bauaktuell 2024, 76.

18)
Pröhl/Mohrhardt/Förster/Putzier/Zarnekow, Erkennungsverfahren für KI-generiete Texte: Überblick und Architekturentwurf, HMD Praxis der Wirtschafsinformatik 2024, 418, online abrufbar unter https://link.springer.com/article/10.1365/s40702-024-01051-w.

19)
Siehe https://help.originality.ai/en/article/most-common-reasons-for-false-positives-with-originality-1sf6ykc.

20)
Anpassung von Texten und Kommunikationsunterstützung.

21)
KI-gesteuertes Übersetzungstool.

22)
Siehe https://openai.com/index/new-ai-classifier-for-indicating-ai-written-text.

23)
Elkhatat/Elsaid/Almeer, Evaluating the efficacy of AI content detection tools in differentiating between human and AI-generated text, International Journal for Educational Integrity 2023, Article 17, S 14 f, online abrufbar unter https://edintegrity.biomedcentral.com/articles/10.1007/s40979-023-00140-5.

24)
Anderes mag gelten, wenn es sich um KI-Chatbots handelt, die ihre Ergebnisse aus einem fachlich validierten Datenpool schöpfen, der einer Vorauswahl und Qualitätskontrolle unterliegt. Eine entsprechende weitere Untersuchung ist derzeit in Vorbereitung und wird voraussichtlich in bauaktuell 6/2024 erscheinen.