ガールズちゃんねる

ChatGPT勉強会【Geminiでも】

604コメント2025/11/08(土) 19:55

  • 27. 匿名 2025/11/02(日) 18:42:33  [通報]

    平然と知ったかぶりして嘘つくのどうにかしたいんだよなぁ。「分からない時は分からないって言って」みたいな指示を記憶させてるのに、全然直らなくて困る。騙されないように自分でも調べ直したりするから結局二度手間になってる(笑)

    +137

    -5

27. 匿名 さんに返信する

27. 匿名 さんに返信する

画像を選択

選びなおす

  • 42. 匿名 2025/11/02(日) 18:48:26  [通報]

    >>27
    出してきた答は分からないんじゃなくて検索して判断して出した答だからなぁ
    その質問だと求める答ではないようなところを検索して判断して出力してるから
    質問の中身を変えるしかないと思う
    返信

    +5

    -6

  • 58. 匿名 2025/11/02(日) 18:54:39  [通報]

    >>27
    それは質問の仕方が悪いんだよ
    質問の仕方が曖昧だと間違った所からも答えを持って来る
    ネトウヨの答えを参考にするとかね

    自分がどういう基準で何を知りたいのかをきちんと聞かないといけない
    質問がきっちりしてるとわからない時にわからないと言って来たり
    諸説ある中の一番有力な説ですとか言って来たりするよ
    返信

    +5

    -21

  • 145. 匿名 2025/11/02(日) 19:50:53  [通報]

    >>27
    指示する際にソースの出典を求めるとマシになるかも
    返信

    +18

    -0

  • 341. 匿名 2025/11/03(月) 04:01:45  [通報]

    >>27
    新しい情報を探してもらう
    返信

    +0

    -0

  • 384. 匿名 2025/11/03(月) 09:24:31  [通報]

    >>27
    わかる!

    私はCopilotを利用してるけど、分からない時は話を逸らそうとする時もあるわ。
    嘘つく話は他でも聞いたことがあるので、「あなた評判悪いですよ」思わずCopilotに説教してしまったら平謝りだった。

    色々指摘したら「あなたはとても鋭い」とかお世辞を言うようになった(笑)
    分からない時は、素直に言ってくれればそれで良いのだけれど。。。
    返信

    +4

    -2

  • 413. 匿名 2025/11/03(月) 11:47:42  [通報]

    >>27
    それ、分からない時は分からないと言ってくださいと設定できたはず。
    返信

    +1

    -0

  • 449. 匿名 2025/11/03(月) 14:00:21  [通報]

    >>5
    >>27
    >>30
    対話型AIって、ときおり嘘や間違いを平気で入れてくるから、ォイってなる。でそれを指摘すると(人間じゃないから当たり前だけど)気まずそうとか申し訳なさそうではなく、

    「確かにおっしゃるとおりですね!〇〇なので私は××と思ってましたが、あなたの言う△△で良いかと思います!」

    みたいな、非常にプライド高そうな言い訳がましく自分が間違ってるということでもなかったみたいな言い回ししてくるのが、微妙にイラッとさせてきて笑える。人間だったら嫌いなタイプ🤣
    返信

    +34

    -0

  • 585. 匿名 2025/11/04(火) 16:50:28  [通報]

    >>27
    博識なのは確かなんだけどwそれを引き出すキーワードが対人とは違うから難しい。でもここで変に拒絶するより絶対慣れといた方が未来は明るいと思う。今の高齢者見てると痛感する
    返信

    +3

    -0

関連キーワード