@Landrichterin
Das nennt man Halluzinieren bei KIs.
Ich bin sehr IT-affin, aber sehe das Ganze skeptisch. Es besteht die Gefahr dass wir uns das Denken abgewöhnen oder nur noch zwischen drei vorgeschlagenen Lösungen eine auswählen...
@weit_im_westen Ich habe mich mit dem Problem auch schon gelegentlich beschäftigt, dachte aber, ChatGPT wäre da mittlerweile etwas weiter, wenn man ausdrücklich nach Nachweisen fragt. Ich bin gespannt, ob KI-gestützte Suchen in den klassischen Datenbanken, wie sie in absehbarer zeit kommen werden, besser sein werden.
@Landrichterin @weit_im_westen
Das wird noch interessant:
Frau RAin Jungk, Justiziarin bei der Allianz, war ja im Anwaltsblatt bezogen auf die interessanten Fragen zur BerufsHPfl (die auch nicht losgelöst von Amtshaftungsfragen sein dürften) ja deutlich:
Generative AI? Auf eigenes Risiko.
https://anwaltsblatt.anwaltverein.de/de/themen/markt-chancen/berufshaftpflichtversicherung-im-hinblick-auf-ki
@walfischbucht @weit_im_westen Mir graust es, wenn ich mir vorstelle, dass anwaltliche Schriftsätze zukünftig in erheblichem Ausmaß nicht überprüfte, von einer KI halluzinierte Fundstellen enthalten könnten!
@Landrichterin @walfischbucht @weit_im_westen Stimmt. Andererseits prüfe ich auch jetzt von der #anwaltschaft benannte Fundstellen, um zu wissen, ob sie überhaupt einschlägig sind. Existiert die Fundstelle schon nicht, geht das schneller, als sich noch einzulesen. KI hat offenbar begriffen, dass Blindzitate in der Juristerei an der Tagesordnung sind. Dann kann es aus Sicht der KI legitim sein, sich stattdessen Fundstellen auszudenken…
@berlingrau @Landrichterin @walfischbucht
Müssen wir Technik erschaffen und etablieren, die die dummen Spielchen der menschlichen Akteure fortsetzt?
@weit_im_westen @Landrichterin @walfischbucht Das ist sicher eine rhetorische Frage.