load

薬院法律事務所

企業法務

私企業が顧問弁護士の代わりとしてChatGPTを利用できるかという相談※chatGPTo1pro作成(企業法務)


2025年01月26日企業法務

chatGPTo1proで作成した2記事について弁護士法との関係を確認しました。

顧客名簿を持ち出した従業員に対する法的手段※chatGPTo1pro作成(企業法務)

顧客名簿を持ち出した従業員からの反論※chatGPTo1pro作成(企業法務、刑事弁護)

プロンプト

【今回の質問とそれに対する回答について弁護士法72条の観点から質問をします。今質問をしている私は、弁護士ですので問題ないと考えていますが、例えば、私企業がchatGPTを利用して顧問弁護士の代わりとして、これだけ詳細な回答を受け取ることは、chatGPTを運営するOpenAIが弁護士法72条が規制する「鑑定」をすることになり許されないのではないのですか。】

 

以下の解説は、日本の弁護士法(以下「弁護士法」といいます)の規定、とりわけ弁護士法72条とAIサービス(ChatGPTを含む)との関係についての一般的な論点整理です。最終的な法的評価は、個別の状況(営利目的の有無、利用の態様、AI側の関与度合い、ユーザー側の認識・使い方など)によって異なりえますし、日本ではまだAIによるリーガルサービスに関して十分に確立した判例・ガイドラインが存在しない面もあります。本回答はあくまで参考情報であり、実際にリスクを判断される場合は、個別事例に即して専門家(弁護士)と直接ご相談いただくことが望ましいことを、あらかじめお含みおきください。


1. 弁護士法72条の概要

1.1 条文の趣旨

日本の弁護士法72条は、**「弁護士(または弁護士法人)でない者が法律事務を取り扱うことを禁止」**しています。具体的には、他人の法律事件に関して、報酬を得る目的で(あるいは報酬の有無を問わず)法律行為を代理・仲介したり、法的鑑定(リーガルアドバイス)を行う行為を広く規制する趣旨です。

弁護士法72条(非弁行為の禁止)
弁護士又は弁護士法人でない者は、報酬を得る目的で法律事件に関して鑑定、代理、仲介、和解その他の法律事務を取り扱うことを業とすることができない。

(なお、条文上「報酬を得る目的で」とあるため、ここが大きな論点となりますが、判例・通説では、たとえ無償でも反復・継続して事実上「業として」行っている場合に違法とされる可能性はあります。)

1.2 「鑑定」の意味

条文には「鑑定、代理、仲介、和解その他の法律事務を取り扱うこと」と規定されています。「鑑定」は、簡単にいえば**「法律上の判断を示して助言する(法律相談に応じる)こと」**だと整理されています。

  • 例えば、企業法務に関する具体的な相談に対して「貴社のケースでは不正競争防止法違反が成立する可能性が高いので、こういった方策をとるべきだ」という具体的法的判断を示すと、「鑑定」に該当しうる可能性があります。
  • 一方で、書籍やウェブサイトなどで一般的・抽象的な法律解説を行うだけであれば、通常は「鑑定」に該当しません。判例・通説上、「法律解釈一般を公表すること」は非弁行為として禁止されるものではなく、個別具体的な相談へのアドバイスかどうかが分かれ目といえます。

2. ChatGPT等のAIサービスによるリーガルアドバイスと弁護士法72条

2.1 AIが「非弁行為」を行っているのか?

**大きな争点は、「AIが個別具体的な法律相談に対して、法的鑑定(リーガルアドバイス)を行っているかどうか」**という点です。さらに、AI自身が「報酬を得る目的で業として」それを行っているか、という点も争点になりえます。

  • ChatGPTの利用は、(例えば有料のChatGPTプラスなど)利用者がサービス使用料を支払っているケースもありますが、「AIがその相談ごとに個別に報酬を得ているわけではない」と整理されることが多いです。
  • とはいえ、ユーザーが「顧問弁護士の代わり」「具体的な契約書レビューや法的助言をAIに代替させよう」という形で利用している場合には、「事実上、AIが非弁行為に該当するリーガルサービスを提供しているのではないか」という指摘もあり得ます。

日本国内では、まだAIサービスに対して「非弁行為」が成立するかどうかを直接判断した裁判例や、明確な行政指導等は存在していないと思われます(2025年1月時点)。しかし、将来的にAIが高度に発達し、具体的個別事情に応じた法的アドバイスを反復・継続的に有償(サブスク)で行う場合、弁護士会や法務当局が問題視する可能性は否定できません。

2.2 「抽象的な情報提供」にとどまるかどうか

弁護士法72条をめぐる一般的な解釈では、個別の相談に対して、法的評価やリスク判断、具体的な手続きを示すなど、実質的に「鑑定」をした場合に非弁行為とみなされる余地があります。逆に、単なる**「法律の条文を案内する」「一般的な法的論点を紹介する」**程度であれば、多くの解説書やウェブサイトが既に行っている行為と変わらず、違法とはならないのが通常です。

  • ChatGPTなどのAIが質問に対し非常に詳細な回答をする場合でも、あくまで**「一般的な情報の提示」にとどまり、AI自身が「あなたのケースでは○○罪に該当する可能性が極めて高いので、こういう請求をすべきです」**といった具体的判断を下し、利用者がそれを頼りに法的対応を取る形になると、実質的には非弁行為とみられる危険が生じます。
  • 一方、ChatGPTのような言語モデルは、利用規約上**「法的助言には当たりません。参考情報にすぎません」**という形で全面的に免責を設けているケースが多く、そこが法的にどう評価されるかも争点となります。

2.3 「利用者が弁護士であれば問題ないか?」

今回のご質問のように、**「ChatGPTを使っているユーザーが弁護士自身」という場合、ユーザー(弁護士)がAIから得た情報を「下調べや参考情報」**として扱い、最終的な法的判断はユーザー(弁護士)が行うのであれば、弁護士法72条上の問題は基本的に生じないと考えられます。

  • 弁護士が必要な法的責任の下、AIの出力を自分で検証し、修正し、最終的なリーガルアドバイスとしてクライアントに提供するならば、**「非弁行為をAIが行った」**という構図にはならないでしょう。
  • いわば、辞書や判例集を参照する感覚でAIを活用し、最終判断は弁護士が行う形です。

2.4 「企業が顧問弁護士の代わりにChatGPTを利用する場合」のリスク

一方、問題提起として挙げられている**「私企業が顧問弁護士を置かず、ChatGPTにその代わりをさせている」ケースでは、ユーザー側が明らかに「具体的に助言を得よう」「法律的な判断をしてもらおう」**と期待している可能性があります。この場合、

  1. ChatGPTが個別具体的事案に踏み込んだ法的見解を提示する
  2. 利用者はそれを実質的なリーガルアドバイスとして受け取り、依拠する
  3. ChatGPT(OpenAI)がサービスとして、反復継続して提供している
  4. サービス利用の対価として、有償のサブスクリプションやAPI利用料が発生している

という構造になると、「実質的に非弁活動・非弁行為ではないか」と指摘されるリスクがゼロではありません。

ただし、OpenAIや他のAI提供企業は一般に「本サービスは法的アドバイスを目的としておらず、一般的な情報提供のみを行うものであり、利用者自身が専門家(弁護士)に相談してください」と免責や利用規約で断っていることが多いです。これによって違法性を回避しようとしているわけですが、日本法においてこれがどこまで通用するかは、現時点では明確ではありません。今後、立法やガイドラインで整理が進む可能性があります。


3. 実務で想定される整理と対応

3.1 サービス提供者側(AI事業者)の立場

  • 「法的アドバイス」をしているわけではなく、「参考としての情報・一般的知識」を提供しているとのスタンスを明示する。
  • 「利用者がそれをどう使うかは自己責任」「必ず弁護士に相談してください」など、ディスクリーマーや利用規約でしっかり注意喚起する。
  • いわゆる「AIの回答は完全ではない。間違いや不正確な情報が含まれる可能性がある」ことを前提条件として提示し、ユーザーが安易に『鑑定』として使わないようコントロールする努力をする。

3.2 利用者側(顧問弁護士不在の企業など)のリスク

  • ChatGPT等のAI回答を**「最終的な法的判断」**として鵜呑みにしてしまうと、誤った対応で損害が発生する恐れがある。さらに、万一自社が第三者に法的アドバイスを提供する形になれば、自社自体が非弁行為の疑いを受ける危険もある。
  • 企業としては**「AIの回答はあくまで参考情報」「本当に重要・高度な法的課題は弁護士に相談する」という二段構え**が望ましい。

3.3 「鑑定」か「一般的な情報か」の境界

  • 現行の日本法とその運用を踏まえれば、最も安全な運用は、AIによる回答を「一般論レベルにとどめる」形に誘導することです。
  • 具体的事案を詳細に提示して「どうすべきか?」と問えば問うほど、回答は「鑑定」に近づく傾向があるため、利用者がそれを「鑑定」だと受け止める危険性が高まります。
  • もっとも、生成AIの出力はユーザーの問い方次第で、かなり具体的アドバイスに近いものが示されるケースもあるため、利用者の使い方の段階で**「非弁リスクが増すかどうか」**が変わってきます。

4. 結論的整理

  1. ChatGPTを含むAIサービスであっても、「一般的・抽象的な法情報の提供」や「条文・判例の要約」レベルならば、弁護士法72条でいう非弁行為(鑑定)に該当する可能性は低いと考えられます。
  2. しかし、顧問弁護士の代用として企業がChatGPTに個別具体的な状況を説明し、詳細な法的判断や手続き指針を得ようとするならば、「鑑定」に近い行為と評価されるリスクが高まります。利用者がその回答を鵜呑みにして法的対応を決定してしまうような態様であれば、将来的に非弁問題となる余地は否定できません。
  3. 現時点で日本におけるAIの法的位置づけはまだ不明確であり、立法論やガイドライン整備の余地が大きいといえます。よって、「AIによるリーガルアドバイス」が直ちに弁護士法72条違反になるかどうかは、ケースバイケースでの解釈によるところが大きいです。
  4. 他方、質問者(利用者)が弁護士本人であった場合は、AIの回答を**「一種のリサーチツール・参考情報」**として使う形になるので、非弁行為の問題は基本的に生じません。最終的に法的判断(鑑定)を行うのはあくまで弁護士自身だからです。
  5. 企業が「顧問弁護士の代わり」にChatGPTを使うのはリスクが高いため、たとえAIが生成した情報が優れていても、最終的には弁護士による確認や、最小限のリーガルチェック体制を確保するのが望ましいでしょう。

補足:今後の動向

  • 弁護士会や法務当局(法務省・検察庁など)がAIリーガルサービスに対する見解・ガイドラインを示す可能性があります。
  • 各国の規制状況によっては、日本でも**「AIによる法的助言をどこまで認めるか」**を巡って新たな立法や業界自主規制がなされるかもしれません。
  • 現時点では、AIの回答を「私的に参考にする」範囲であれば問題になりにくい一方、それを「対外的な法律アドバイス」として提供したり、有償サービスとして第三者に提供するような場合は、非弁行為や責任問題が顕在化しやすい**と整理しておくのが無難と考えられます。

まとめ

  • ご質問: 「私企業が顧問弁護士の代わりとしてChatGPTを利用し、これほど詳細な回答を得ることは、OpenAIが弁護士法72条に反する『鑑定』をすることになるのではないか?」
  • 結論(概説):
    1. 現行法上、厳密に言えば、個別具体的な法的助言(鑑定)をAIが提供してユーザーがそれを実質的なリーガルアドバイスとして利用している場合、『非弁行為』に該当する恐れが完全に否定できるわけではありません。
    2. しかし、AI提供者(OpenAIなど)は通常、「法的助言ではなく一般的情報提供である」「利用者は自己責任で弁護士に相談すべき」といったディスクリーマーを設けており、実際にどこまで非弁行為になるかは未確立です。
    3. ユーザーが弁護士自身の場合は問題ありませんが、一般企業がAI回答をもって「法的鑑定」とみなし実務に使うならば、リスクは否めないため、最終的には顧問弁護士等の専門家によるチェックを入れることが望ましいです。

要するに、理論上は「AIによる個別法的助言」が弁護士法72条に抵触するおそれを否定しきれず、利用態様によっては問題化し得るという点を踏まえておく必要があります。現時点では日本で確立した裁判例・ガイドラインがないため、“グレーゾーン”として慎重に扱うのが現実的といえるでしょう。