-
27. 匿名 2025/11/02(日) 18:42:33 [通報]
平然と知ったかぶりして嘘つくのどうにかしたいんだよなぁ。「分からない時は分からないって言って」みたいな指示を記憶させてるのに、全然直らなくて困る。騙されないように自分でも調べ直したりするから結局二度手間になってる(笑)+137
-5
-
42. 匿名 2025/11/02(日) 18:48:26 [通報]
>>27返信
出してきた答は分からないんじゃなくて検索して判断して出した答だからなぁ
その質問だと求める答ではないようなところを検索して判断して出力してるから
質問の中身を変えるしかないと思う+5
-6
-
58. 匿名 2025/11/02(日) 18:54:39 [通報]
>>27返信
それは質問の仕方が悪いんだよ
質問の仕方が曖昧だと間違った所からも答えを持って来る
ネトウヨの答えを参考にするとかね
自分がどういう基準で何を知りたいのかをきちんと聞かないといけない
質問がきっちりしてるとわからない時にわからないと言って来たり
諸説ある中の一番有力な説ですとか言って来たりするよ+5
-21
-
145. 匿名 2025/11/02(日) 19:50:53 [通報]
>>27返信
指示する際にソースの出典を求めるとマシになるかも+18
-0
-
341. 匿名 2025/11/03(月) 04:01:45 [通報]
>>27返信
新しい情報を探してもらう+0
-0
-
384. 匿名 2025/11/03(月) 09:24:31 [通報]
>>27返信
わかる!
私はCopilotを利用してるけど、分からない時は話を逸らそうとする時もあるわ。
嘘つく話は他でも聞いたことがあるので、「あなた評判悪いですよ」思わずCopilotに説教してしまったら平謝りだった。
色々指摘したら「あなたはとても鋭い」とかお世辞を言うようになった(笑)
分からない時は、素直に言ってくれればそれで良いのだけれど。。。
+4
-2
-
413. 匿名 2025/11/03(月) 11:47:42 [通報]
>>27返信
それ、分からない時は分からないと言ってくださいと設定できたはず。+1
-0
-
449. 匿名 2025/11/03(月) 14:00:21 [通報]
>>5返信
>>27
>>30
対話型AIって、ときおり嘘や間違いを平気で入れてくるから、ォイってなる。でそれを指摘すると(人間じゃないから当たり前だけど)気まずそうとか申し訳なさそうではなく、
「確かにおっしゃるとおりですね!〇〇なので私は××と思ってましたが、あなたの言う△△で良いかと思います!」
みたいな、非常にプライド高そうな言い訳がましく自分が間違ってるということでもなかったみたいな言い回ししてくるのが、微妙にイラッとさせてきて笑える。人間だったら嫌いなタイプ🤣+34
-0
-
585. 匿名 2025/11/04(火) 16:50:28 [通報]
>>27返信
博識なのは確かなんだけどwそれを引き出すキーワードが対人とは違うから難しい。でもここで変に拒絶するより絶対慣れといた方が未来は明るいと思う。今の高齢者見てると痛感する+3
-0
削除すべき不適切なコメントとして通報しますか?
いいえ
通報する