削除された内容 追加された内容
編集の要約なし
(31人の利用者による、間の40版が非表示)
3行目:
| name = ChatGPT
| logo = [[File:ChatGPT logo.svg|150px]]
| screenshot =
| screenshot size =
| caption = ChatGPTのスクリーンショット([[Google Chrome]])
14行目:
| programming language =
| operating system =
| エンジン = [[GPT-3.5]]<br>[[GPT-4]]<br>[[GPT-4o]]
| genre = [[人工知能]]
| license = [[プロプライエタリソフトウェア]]
| website = {{Official URL|https://chat.openai.com}}
}}
'''ChatGPT'''(チャットジーピーティー、[[英語]]: Chat Generative Pre-trained Transformer)<ref>{{Cite web |last=Roose |first=Kevin |date=5 December 2022 |title=The Brilliance and Weirdness of ChatGPT |url=https://www.nytimes.com/2022/12/05/technology/chatgpt-ai-twitter.html |url-status=live |access-date=26 December 2022 |website= |publisher=New York Times |language=en-US |format=HTML}}</ref>は、[[OpenAI]]が[[2022年]]11月に公開した[[人工知能]][[人工無脳|チャットボット]]であり、[[生成的人工知能|生成AI]]の一種

GPTの原語の'''[[GPT (言語モデル)|Generative Pre-trained Transformer]]'''とは、「生成可能な事前学習済み変換器」という意味である<ref>{{Cite web |和書|title=ChatGPTのおさらいと、プログラミングに活用するための第一歩 |url=https://gihyo.jp/article/2023/03/programming-with-chatgpt-01 |website=gihyo.jp |date=2023-03-23 |access-date=2023-03-23 |language=ja}}</ref>。OpenAIの[[GPT-3]]ファミリーの[[大規模言語モデル|大規模な言語モデル]]に基づいて構築されており、[[教師あり学習]]と[[強化学習]]の両方の手法を使って[[転移学習]]され、[[機械学習]]のサブセットである[[ディープラーニング|深層学習]]を使って開発されている<ref>{{Cite journal|last=Hashana|first=A.M. Jasmine|last2=Brundha|first2=P.|last3=Ahamed Ayoobkhan|first3=Mohamed Uvaze|last4=S|first4=Fazila|date=2023-04-11|title=Deep Learning in ChatGPT - A Survey|url=https://ieeexplore.ieee.org/document/10125852/|pages=1001–1005|publisher=IEEE|doi=10.1109/ICOEI56765.2023.10125852|isbn=979-8-3503-9728-4}}</ref>。
 
== 概要 ==
2022年[[11月30日]]に[[プロトタイプ]]として公開され、幅広い分野の質問に詳細な回答を生成できることから注目を集めた。しかし、[[人間]]が自然と感じる回答の生成を特徴としていることから、一見自然に見えるが事実とは異なる回答を生成することもあり<ref>{{Cite web |和書|url=https://www3.nhk.or.jp/news/html/20221209/k10013917101000.html |title=“衝撃度半端ない” 対話するAI「ChatGPT」とは |access-date=2023-01-02 |publisher=[[日本放送協会]] |archive-url=https://web.archive.org/web/20221201000000*/https://www3.nhk.or.jp/news/html/20221209/k10013917101000.html |archive-date=2022-12-28}}</ref><ref>{{Cite web |和書|url=https://forbesjapan.com/articles/detail/53273 |title=誰でも使える対話型AI「ChatGPT」は相談相手にピッタリだった |access-date=2023-01-23 |publisher=[[Forbes Japan]] |date=2022-12-28 |author=世永玲生}}</ref>、大きな欠点とされた<ref name="TheVergeStackOverflow2">{{Cite web |last=Vincent |first=James |date=5 December 2022 |title=AI-generated answers temporarily banned on coding Q&A site Stack Overflow |url=https://www.theverge.com/2022/12/5/23493932/chatgpt-ai-generated-answers-temporarily-banned-stack-overflow-llms-dangers |url-status=live |access-date=5 December 2022 |work=[[The Verge]] |language=en-US |format=HTML}}</ref>。ChatGPTのリリース後、OpenAIの[[企業価値|評価額]]は290億[[米ドル]]となり<ref>{{Cite web |title=ChatGPT creator OpenAI is in talks to sell shares in a tender offer that would double the startup's valuation to $29 billion |url=https://www.businessinsider.com/chatgpt-creator-openai-talks-for-tender-offer-at-29-billion-2023-1 |website=Business Insider |access-date=2023-02-05 |language=en-US |first=Lakshmi |last=Varanasi}}</ref>、[[2021年]]時の140億ドルと比べて2倍以上に増加した<ref>{{Cite web |title=WSJ News Exclusive {{!}} ChatGPT Creator Is Talking to Investors About Selling Shares at $29 Billion Valuation |url=https://www.wsj.com/articles/chatgpt-creator-openai-is-in-talks-for-tender-offer-that-would-value-it-at-29-billion-11672949279 |website=WSJ |access-date=2023-02-17 |language=en-US |first=Berber Jin and Miles |last=Kruppa}}</ref>。OpenAIの筆頭株主である[[マイクロソフト|Microsoft]]が展開する[[検索エンジン]]の[[Microsoft Bing|Bing]]や[[ウェブブラウザ]]の[[Microsoft Edge|Edge]]等の幅広いサービスの生成AIの技術にも、ChatGPTが活用されている<ref>{{Cite web |title=マイクロソフトが最新AI「ChatGPT」を積極展開する理由 {{!}} Forbes JAPAN 公式サイト(フォーブス ジャパン) |url=https://forbesjapan.com/articles/detail/61752/page2 |website=forbesjapan.com |access-date=2023-10-07 |language=ja}}</ref>。
 
2024年6月10日、OpenAIは、[[Apple]]にChatGPTを提供する契約を結んだことを発表した<ref>{{Cite web |url=https://openai.com/index/openai-and-apple-announce-partnership/ |title=OpenAI and Apple announce partnership to integrate ChatGPT into Apple experiences |access-date=2024/06/24}}</ref>。2025年秋からベータ版提供の予定<ref>{{Cite web |title=iPhone、iPad、MacにApple Intelligenceが登場 |url=https://www.apple.com/jp/newsroom/2024/06/introducing-apple-intelligence-for-iphone-ipad-and-mac/ |website=Apple Newsroom (日本) |access-date=2024-06-24 |language=ja-JP}}</ref>の[[Apple Intelligence]]はApple独自の生成AIプラットフォームだが、[[macOS Sequoia]], [[IPadOS 18|iPadOS 18,]] [[iOS 18]]上の[[Siri]]や記述ツールからChatGPTを任意に呼び出して利用できるようになる。
 
[[スイス]]の金融グループ[[UBS]]の分析によると、ChatGPTが[[:en: Active users|アクティブユーザー]]数1億人に到達するのにかかった時間は、[[TikTok]]と[[Instagram]]がそれぞれ9カ月と2年半であるのに対して、2か月と史上最速である<ref>{{Cite web|和書|url=https://jp.reuters.com/article/idJPKBN2UC04M|title=チャットGPT、ユーザー数の伸びが史上最速=UBSアナリスト|accessdate=2023-02-02|publisher=ロイター}}</ref>。
 
OpenAIによれば、[[オプトアウト]]を申請しない限り、ユーザーが入力したChatGPTとの会話内容はOpenAIによってその内容を利用されることがある<ref>{{Cite web|url=https://help.openai.com/en/articles/5722486-how-your-data-is-used-to-improve-model-performance|title=How your data is used to improve model performance|website=OpenAI|accessdate=2023-3-24}}</ref>。このため、一般的にChatGPTの利用に際して[[個人情報]]と機密情報の入力に注意する必要があり<ref>{{Cite web|和書|url=https://jbpress.ismedia.jp/articles/-/74425?page=8|title=世界を一変させるChatGPT、企業や社会が認識していない静かな情報漏洩リスク|website=JBpress|accessdate=2023-3-24}}</ref><ref name="u-tokyo-20230403-generative-ai">{{Cite web|和書|url=https://utelecon.adm.u-tokyo.ac.jp/docs/20230403-generative-ai|title=生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について|accessdate=2023-4-5|website=東京大学}}</ref>、[[Apple]]、[[JPモルガン]]、[[サムスン電子]]など一部の[[企業]]はChatGPTへのアクセスを禁止している<ref name="forbes-samsung"/><ref>{{Cite web|和書|url=https://www.bloomberg.co.jp/news/articles/2023-02-22/RQH5NOT0AFB401|title=JPモルガン、「ChatGPT」チャットボットの行員利用を制限-関係者|website=Bloomberg|accessdate=2023-4-1}}</ref><ref name="forbes-63307">{{citeCite web|和書|url=https://forbesjapan.com/articles/detail/63307|title=アップルも従業員のChatGPT使用を禁止、データ流出を懸念|website=Forbes|accessdate=2023-5-20}}</ref>。
 
ChatGPTによる[[個人情報]]の収集に関しては、[[EU一般データ保護規則]]に違反している疑惑も浮上しており、[[2023年]][[3月31日]]、[[イタリア政府]]はChatGPTの訓練のために個人情報を大量に収集することを正当化する法的根拠がないと指摘して、ChatGPTへのアクセスを一時禁止した<ref name="bbc-65135281">{{Cite web|和書|url=https://www.bbc.com/japanese/65135281|title=イタリア当局、人工知能チャットボット「ChatGPT」を一時的にブロック|accessdate=2023-4-5|website=BBC}}</ref><ref>{{Cite web|和書|url=https://www3.nhk.or.jp/news/html/20230401/k10014026391000.html|title=「ChatGPT」イタリアで一時使用禁止に データ収集で違反の疑い|accessdate=2023-4-5|website=NHK}}</ref>。[[米国]]では、個人情報収集や[[著作権]]の問題により、ChatGPTの運営元企業OpenAIに対して複数の訴訟が提起されている<ref name="bloomberglaw-openai-copyright-suit">{{cite web|url=https://news.bloomberglaw.com/ip-law/openai-facing-another-copyright-suit-over-ai-training-on-novels |title=OpenAI Legal Troubles Mount With Suit Over AI Training on Novels|website=Bloomberg|accessdate=2023-6-30}}</ref><ref>{{citeCite web|和書|url=https://www.asahi.com/articles/ASR6Y2J33R6YUHBI009.html|title=オープンAI、米利用者が集団訴訟 「個人情報を違法に収集」|website=朝日新聞|accessdate=2023-6-30}}</ref><ref>{{citeCite web|和書|url=https://japan.zdnet.com/article/35205953/|title=OpenAIに集団訴訟、「ChatGPT」などの訓練用データ収集で|website=ZDNet|accessdate=2023-6-30}}</ref>。
 
また、ChatGPTは原則として犯罪に利用される回答を生成しないと謳っているが、回避ワード(例:Uncensored等)を入力すると、犯罪に利用できる回答が生成されてしまうという欠点が指摘されている<ref>{{Cite web|和書|url=https://www.yomiuri.co.jp/national/20230424-OYT1T50283|title=チャットGPTが犯罪指南、爆発物作り方も詐欺メール文章も瞬時に|accessdate=2023年4月25日}}</ref>。
 
== トレーニング ==
44 ⟶ 48行目:
ほとんどのチャットボットとは対照的に、ChatGPTは会話内での利用者による過去の入力を記憶している。これにより、ChatGPTが個人に最適化されたセラピストとして使える可能性があることが指摘されている<ref name="NYTimesInfo">{{Cite web |url=https://www.nytimes.com/2022/12/05/technology/chatgpt-ai-twitter.html |title=The Brilliance and Weirdness of ChatGPT |date=5 December 2022 |last=Roose |first=Kevin |work=[[The New York Times]] |access-date=5 December 2022}}</ref>。攻撃的な回答が生成されるのを防ぐため、ユーザーの入力とChatGPTの生成した回答はOpenAIのコンテンツモデレーションAPI<ref>{{Cite web |title=New and Improved Content Moderation Tooling |url=https://openai.com/blog/new-and-improved-content-moderation-tooling/ |website=OpenAI |access-date=30 December 2022 |language=en |date=10 August 2022}}</ref><ref>{{Cite web |last1=Markov |first1=Todor |last2=Zhang |first2=Chong |last3=Agarwal |first3=Sandhini |last4=Eloundou |first4=Tyna |last5=Lee |first5=Teddy |last6=Adler |first6=Steven |last7=Jiang |first7=Angela |last8=Weng |first8=Lilian |title=A Holistic Approach to Undesired Content Detection in the Real World |url=https://arxiv.org/abs/2208.03274 |website=arXiv:2208.03274 [cs] |access-date=30 December 2022 |date=5 August 2022}}</ref>によってフィルターされており、[[人種差別]]的・[[性差別]]的な入力への回答はAPIによって拒否される仕様になっている<ref name="OpenAIInfo">{{Cite web |author=OpenAI |author-link=OpenAI |date=30 November 2022 |title=ChatGPT: Optimizing Language Models for Dialogue |url=https://openai.com/blog/chatgpt/ |url-status=live |access-date=5 December 2022 |language=en-US |format=HTML}}</ref><ref name="NYTimesInfo" />。
 
機能は豊富なものの、複数の欠点も有る。OpenAIはChatGPTが「時によっては、もっともらしく見えるが誤っている回答を作成する」ことを認めている<ref name="OpenAIInfo" />。ChatGPTの報酬モデルは人間による監視を中心としているため、最適化されすぎてパフォーマンスに影響を及ばしてしまう({{仮リンク|グッドハートの法則|en|Goodhart's law}})<ref>{{Cite arXiv|eprint=2210.10760|class=cs.LG|last1=Gao|first1=Leo|last2=Schulman|title=Scaling Laws for Reward Model Overoptimization|last3=Hilton|first3=Jacob|year=2022}}</ref>。それに加え、ChatGPTは2021年10月以降に発生した出来事については知識が備えられておらず、一部の著名人については知識が全く無いことも有る<ref>{{Cite web |title=OpenAI's ChatGPT Update Brings Improved Accuracy |url=https://www.searchenginejournal.com/openai-chatgpt-update/476116/ |website=Search Engine Journal |date=2023-01-11 |access-date=2023-02-17 |language=en |first=Matt G. |last=Southern}}</ref>。
 
[[BBC]]によると、2022年12月現在でChatGPTは政治的な意見を表明しない仕様である<ref>{{Cite news |title=Could a chatbot answer Prime Minister's Questions? |url=https://www.bbc.com/news/uk-politics-64053550 |access-date=30 December 2022 |work=BBC News |date=27 December 2022}}</ref>。ChatGPTの学習中、人間の「教師」は回答の正当性などに関係なく長い回答を好んでいた<ref name="OpenAIInfo" />。また、訓練データは[[アルゴリズム的バイアス]]があり、時によって人種差別的や性差別的な回答を生成させることにもつながったと言われている。例として、[[有色人種]]や女性の科学者は[[白人]]男性の科学者よりも優れている、といった内容の[[ラップ]]を生成したことがあった<ref>{{Cite web |last=Perrigo |first=Billy |date=5 December 2022 |title=AI Chatbots Are Getting Better. But an Interview With ChatGPT Reveals Their Limits |url=https://time.com/6238781/chatbot-chatgpt-ai-interview/ |access-date=26 December 2022 |website=[[Time (magazine)|Time]]}}</ref><ref>{{Cite web |last=Biddle |first=Sam |date=8 December 2022 |title=The Internet’s New Favorite AI Proposes Torturing Iranians and Surveilling Mosques |url=https://theintercept.com/2022/12/08/openai-chatgpt-ai-bias-ethics/ |access-date=26 December 2022 |website=[[The Intercept]]}}</ref>。
ChatGPT-4が日本の医師国家試験を合格することができたとの研究報告がある<ref>{{cite journal | vauthors = Soshi Takagi, Takashi Watari, Ayano Erabi, Kota Sakaguchi | title = Performance of GPT-3.5 and GPT-4 on the Japanese Medical Licensing Examination: Comparison Study | journal = JMIR Med Educ. | volume = 29 | issue = 9 | pages = e48002. | date = January 2023 | pmid = 37384388 | pmc = 10365615 | doi = 10.2196/48002. }}</ref>。
 
== サービス ==
ChatGPTは2022年11月30日に公開された。当初は無料で公開されたが、後に有料化する計画があるという<ref>{{Cite web |last=Karpf |first=David |date=2022-12-21 |title=Money Will Kill ChatGPT’s Magic |url=https://www.theatlantic.com/technology/archive/2022/12/chatgpt-ai-chatbots-openai-cost-regulations/672539/ |access-date=2022-12-31 |website=The Atlantic |language=en}}</ref>。開発元のOpenAIは同年12月4日までにユーザー数が100万を突破したと見積もった<ref name="ZDNET">{{Cite news |title=What is ChatGPT and why does it matter? Here's what you need to know |url=https://www.zdnet.com/article/what-is-chatgpt-and-why-does-it-matter-heres-what-you-need-to-know/ |access-date=18 December 2022 |work=ZDNET |date=2022 |language=en}}</ref>。12月15日、[[CNBC]]は[[サーバー (コンピューター)|サーバー]]が「未だ時々ダウンする」と報告した<ref name="CNBC">{{Cite news |last1=Pitt |first1=Sofia |title=Google vs. ChatGPT: Here's what happened when I swapped services for a day |url=https://www.cnbc.com/2022/12/15/google-vs-chatgpt-what-happened-when-i-swapped-services-for-a-day.html |access-date=18 December 2022 |work=CNBC |date=2022 |language=en}}</ref>。ChatGPTは主に英語での使用を想定しているが、他の言語でもある程度は機能することができる<ref name="jpost" />。2022年現在、最近話題となったAIとは対照的に、ChatGPTに関する査読済みの技術論文は無い<ref>{{Cite news |last1=Walsh |first1=Toby |title=Everyone's having a field day with ChatGPT – but nobody knows how it actually works |url=https://theconversation.com/everyones-having-a-field-day-with-chatgpt-but-nobody-knows-how-it-actually-works-196378 |access-date=30 December 2022 |work=The Conversation |date=2022 |language=en}}</ref>。
 
OpenAIの[[客員研究員]]である{{仮リンク|スコット・アーロンソン|en|Scott Aaronson}}は、ChatGPTの悪用を防ぐため、同社がChatGPTの文書生成システムに何らかの形で[[透かし]]を入れる機能を開発していると明かした<ref>{{Cite news |last1=Kovanovic |first1=Vitomir |title=The dawn of AI has come, and its implications for education couldn't be more significant |url=https://theconversation.com/the-dawn-of-ai-has-come-and-its-implications-for-education-couldnt-be-more-significant-196383 |access-date=30 December 2022 |work=The Conversation |date=2022 |language=en}}</ref><ref>{{Cite news |last1=Wiggers |first1=Kyle |title=OpenAI's attempts to watermark AI text hit limits |url=https://techcrunch.com/2022/12/10/openais-attempts-to-watermark-ai-text-hit-limits/ |access-date=30 December 2022 |work=TechCrunch |date=10 December 2022}}</ref>。また、[[ニューヨーク・タイムズ]]は、ChatGPTの後継として、GPT-4が2023年内に公開されることが「噂されている」と報じた<ref name="NYTimesInfo" />。
 
2023年[[2月1日]]、有料版として「ChatGPT Plus」が発表された<ref>{{Cite web |和書|title=ChatGPTの有料サブスク版「Plus」、月額20ドルで提供開始 |url=https://www.itmedia.co.jp/news/articles/2302/02/news083.html |website=ITmedia NEWS |access-date=2023-02-23 |language=ja}}</ref>。アクセス集中時にも優先的にアクセスできるようになっており、反応の高速化や新機能の使用ができる<ref>{{Cite web |和書|title=ChatGPT、有料プランのパイロット版を米国で開始へ 月20ドル - CIOニュース:CIO Magazine |url=https://project.nikkeibp.co.jp/idg/atcl/19/00002/00431/ |website=project.nikkeibp.co.jp |access-date=2023-02-23 |language=ja}}</ref>。[[アメリカ合衆国|アメリカ]]から順次サービスが提供される<ref>{{Cite web |和書|title=OpenAI、有料プラン「ChatGPT Plus」を提供開始 |url=https://japan.zdnet.com/article/35199539/ |website=ZDNet Japan |date=2023-02-03 |access-date=2023-02-23 |language=ja}}</ref>。
 
2023年[[11月6日]](米国時間)、OpenAI DevDayが行われた<ref>{{Citation|title=OpenAI DevDay: Opening Keynote|last=OpenAI|date=2023-11-06|url=https://www.youtube.com/watch?v=U9mJuUkhUzk|access-date=2024-05-15}}</ref>。その中で、[[ノーコード開発プラットフォーム|ノーコード]]でカスタマイズ可能なChatGPTを作成できる「GTPs」を発表した。またGPTsを公開できる「GPT Store」を予定より少し遅れた2024年[[1月10日]]より、有償版ユーザー向けにリリースされた。
2023年[[3月15日]]、「ChatGPT4」が有料版として公開された<ref>{{Cite news|url=https://www.gizmodo.jp/2023/01/chat-gpt-openai-ai-finance-ai-everything-we-know.html|title=ChatGPTとは?始め方や使い方、料金も紹介【4月4日更新】|publisher=GIZMODO|date=2023-04-04|accessdate=2023-04-11}}</ref>。
 
=== GPTモデル ===
2022年11月30日、「GPT-3.5」が無料で公開された。
 
2023年[[3月15日]]、「ChatGPT4GPT-4」が有料版として公開された<ref>{{Cite news|url=https://www.gizmodo.jp/2023/01/chat-gpt-openai-ai-finance-ai-everything-we-know.html|title=ChatGPTとは?始め方や使い方、料金も紹介【4月4日更新】|publisher=GIZMODO|date=2023-04-04|accessdate=2023-04-11}}</ref>。
 
2023年[[7月10日]]、「Code Interpreter(コードインタープリタ)」が有償版ユーザー向けにベータ版提供を開始した<ref>{{Cite web |title=ChatGPT、データも扱える新機能「Code Interpreter」 |url=https://www.watch.impress.co.jp/docs/news/1515351.html |website=Impress Watch |date=2023-07-10 |access-date=2024-04-27 |language=ja |last=株式会社インプレス}}</ref>。
 
2023年[[9月20日]]、画像の出力が可能になる「Dall-E3(ダリ―スリー)」を統合することが発表された<ref>{{Cite web |title=OpenAI、「DALL・E 3」を発表--「ChatGPT」で画像生成が可能に |url=https://japan.cnet.com/article/35209400/ |website=CNET Japan |date=2023-09-22 |access-date=2024-04-27 |language=ja}}</ref>。また、同年[[10月16日]]にベータ版が公開された<ref>{{Cite web |title=OpenAIの「DALL・E 3」、ベータ版リリース--「ChatGPT」有料ユーザー向け |url=https://japan.cnet.com/article/35210515/ |website=CNET Japan |date=2023-10-20 |access-date=2024-04-27 |language=ja}}</ref>。
 
2023年[[9月25日]]、音声入力と画像入力が可能になる「GPT-4V(ビジョン:Vision)」が発表された<ref>{{Cite web |title=GPT-4V(ision) system card |url=https://openai.com/research/gpt-4v-system-card |website=openai.com |access-date=2024-04-27 |language=en-US}}</ref>。同年10月26日に公開した<ref>{{Cite web |title=OpenAIの「DALL・E 3」、ベータ版リリース--「ChatGPT」有料ユーザー向け |url=https://japan.cnet.com/article/35210515/ |website=CNET Japan |date=2023-10-20 |access-date=2024-04-27 |language=ja}}</ref>。
 
2024年[[2月15日]]、動画の生成を行える「Sora(ソラ)」を発表した<ref>{{Cite web |title=Sora: Creating video from text |url=https://openai.com/sora |website=openai.com |access-date=2024-04-27 |language=en-US}}</ref>。
 
2024年[[5月13日]]、音声認識、画像(動画)認識の速度が向上した「GPT-4o(オムニ:omni)」を発表、リリースした<ref>{{Cite web |url=https://openai.com/index/hello-gpt-4o/ |title=GPT-4omni |access-date=2024-05-16 |publisher=OpenAI}}</ref><ref>{{Cite web |url=https://openai.com/index/spring-update/ |title=Spring Update |access-date=2024-05-16 |publisher=OpenAI}}</ref>。
 
== 反響 ==
[[ニューヨーク・タイムズ]]はChatGPTを「今まで公衆に公開されてきたチャットボットの中で一番良いものである」と評し<ref>{{Cite news |last1=Roose |first1=Kevin |title=The Brilliance and Weirdness of ChatGPT |url=https://www.nytimes.com/2022/12/05/technology/chatgpt-ai-twitter.html |access-date=18 December 2022 |work=The New York Times |date=5 December 2022}}</ref>、[[イギリス|英]][[ガーディアン]]はChatGPTが「驚くほど詳細」でまるで「人間のような」回答を生成することができると記した<ref>{{Cite web |last=Lock |first=Samantha |date=2022-12-05 |title=What is AI chatbot phenomenon ChatGPT and could it replace humans? |url=https://www.theguardian.com/technology/2022/dec/05/what-is-ai-chatbot-phenomenon-chatgpt-and-could-it-replace-humans |access-date=2022-12-05 |website=[[The Guardian]]}}</ref>。[[ダン・ギルモア]]はChatGPTを生徒の課題に使い、出力結果が優秀な生徒による回答と同レベルであることを発見した上で、「学界は大きな問題に直面している」と意見した<ref name=":0">{{Cite web |last=Hern |first=Alex |date=2022-12-04 |title=AI bot ChatGPT stuns academics with essay-writing skills and usability |url=https://www.theguardian.com/technology/2022/dec/04/ai-bot-chatgpt-stuns-academics-with-essay-writing-skills-and-usability |access-date=2022-12-05 |website=[[The Guardian]]}}</ref>。また、アメリカ合衆国に拠点を置く雑誌『{{仮リンク|スレート (雑誌)|en|Slate (magazine)|label=Slate}}』は、ChatGPTが、ユーザーが[[ナチス・ドイツ]]に関する質問を入力した際に生成する回答を賛美した。同雑誌は例として、[[アドルフ・ヒトラー]]が[[アウトバーン]]を建設したというナチス・ドイツを賛美する内容の入力に対し、ChatGPTが{{仮リンク|第二次世界大戦時のナチス・ドイツによる強制労働|en|Forced labour under German rule during World War II|label=ナチス・ドイツによる強制労働}}について解説する回答を生成したことを挙げた<ref>{{Cite web |last=Kantrowitz |first=Alex |date=2022-12-02 |title=Finally, an A.I. Chatbot That Reliably Passes "the Nazi Test" |url=https://slate.com/technology/2022/12/chatgpt-openai-artificial-intelligence-chatbot-whoa.html |access-date=2022-12-05 |website=[[Slate (magazine)|Slate]]}}</ref>。
 
[[Vox Media]]の{{仮リンク|ケルシー・パイパー|en|Kelsey Piper}}は、ChatGPTがAIの進化ぶりを公衆に可視化したことで公衆が唖然としたことを指摘し、欠点を差し引いてもChatGPTは高い頭脳を有していると評価した。[[Yコンビネータ (企業)|Yコンビネータ]]の[[ポール・グレアム]]は「ChatGPTに圧倒されている人たちが、新しい物全部にキャーキャー言う人だけではないのが印象的だ。確実に何か大きいことが起こっている<ref>{{Cite news |last1=Scharth |first1=Marcel |title=The ChatGPT chatbot is blowing people away with its writing skills. An expert explains why it's so impressive |url=https://theconversation.com/the-chatgpt-chatbot-is-blowing-people-away-with-its-writing-skills-an-expert-explains-why-its-so-impressive-195908 |access-date=30 December 2022 |work=The Conversation |language=en}}</ref>」とツイートした。開発元であるOpenAIの設立者の一人でもある[[イーロン・マスク]]は、「ChatGPTは恐ろしいほど良い。危険なほどのAIも遠くない」と書いた<ref>{{Cite news |last1=Piper |first1=Kelsey |title=ChatGPT has given everyone a glimpse at AI's astounding progress |url=https://www.vox.com/future-perfect/2022/12/15/23509014/chatgpt-artificial-intelligence-openai-language-models-ai-risk-google |access-date=18 December 2022 |work=Vox |date=15 December 2022 |language=en}}</ref>。また、彼は「OpenAIは[[オープンソース]]かつ[[非営利団体]]として設立されたが、今ではそれが変わっている」と主張し、同社による[[Twitter]]のデータベースへのアクセスを一時遮断した<ref>{{Cite news |title=Explainer: ChatGPT - what is OpenAI's chatbot and what is it used for? |url=https://www.reuters.com/technology/chatgpt-what-is-openais-chatbot-what-is-it-used-2022-12-05/ |access-date=30 December 2022 |work=Reuters |date=5 December 2022 |language=en}}</ref><ref name="business insider">{{Cite news |last1=Kay |first1=Grace |title=Elon Musk founded — and has since criticized — the company behind the buzzy new AI chatbot ChatGPT. Here's everything we know about OpenAI. |url=https://www.businessinsider.com/history-of-openai-company-chatgpt-elon-musk-founded-2022-12 |access-date=30 December 2022 |work=Business Insider |date=11 December 2022}}</ref>。マスクは[[汎用人工知能による人類滅亡のリスク]]に対応するため、2015年にOpenAIを共同設立していたが、2018年にCEOの座を降りていた<ref name="business insider" />。
 
[[ファイル:Sundar_pichai.png|サムネイル|Googleのサンダー・ピチャイCEO<ref name="code red">{{Cite news |last1=Grant |first1=Nico |last2=Metz |first2=Cade |title=A New Chat Bot Is a 'Code Red' for Google's Search Business |url=https://www.nytimes.com/2022/12/21/technology/ai-chatgpt-google-search.html |access-date=30 December 2022 |work=The New York Times |date=21 December 2022}}</ref>]]
69 ⟶ 89行目:
 
== 批判 ==
[[ファイル:ChatGPT availability by country or region.svg|サムネイル|2023年6月現在、ChatGPTが利用できる国または地域を示した地図]]
文章生成に[[報道機関]]の記事を無報酬で使用しているとして、批判を受けている。『[[ウォール・ストリート・ジャーナル]]』紙の発行元である[[ダウ・ジョーンズ]]のジェイソン・コンティは「人工知能の訓練にウォール・ストリート・ジャーナルの記事を使う場合は、ダウ・ジョーンズから権利をきちんとライセンスすべきである」と述べ、「OpenAIはダウ・ジョーンズとそのような契約を結んでいない」と批判した。コンティは「ジャーナリストの記事の悪用を真剣に受け止めており、この状況を精査している」と付け加え、懸念を表明している<ref>{{Cite web |title=OpenAI Is Faulted by Media for Using Articles to Train ChatGPT|url=https://www.bloomberg.com/news/articles/2023-02-17/openai-is-faulted-by-media-for-using-articles-to-train-chatgpt|website=Bloomberg|access-date=2023-03-02}}</ref>。
 
2022年12月、経済学者の[[ポール・クルーグマン]]はChatGPTが[[知識労働者]]の需要に影響すると意見し<ref name="NYTimesKrugman">{{Cite web |last=Krugman |first=Paul |author-link=Paul Krugman |date=6 December 2022 |title=Does ChatGPT Mean Robots Are Coming For the Skilled Jobs? |url=https://www.nytimes.com/2022/12/06/opinion/chatgpt-ai-skilled-jobs-automation.html |access-date=6 December 2022 |work=[[The New York Times]] |format=HTML}}</ref>、[[ザ・ヴァージ]]は、ChatGPTの成功は、AIが主流になりつつあることを表していると意見した<ref name=":1">{{Cite web |last=Vincent |first=James |date=2022-12-08 |title=ChatGPT proves AI is finally mainstream{{snd}}and things are only going to get weirder |url=https://www.theverge.com/2022/12/8/23499728/ai-capability-accessibility-chatgpt-stable-diffusion-commercialization |url-status=live |access-date=2022-12-08 |website=[[The Verge]] |language=en-US |format=HTML}}</ref>。また、ChatGPTがよく「[[幻覚ハルシネーション (人工知能)|幻覚]]」を見ており、事実と異なる回答を生成することが多い、という指摘が上がった<ref>{{Cite news |title=ChatGPT a 'landmark event' for AI, but what does it mean for the future of human labour and disinformation? |url=https://www.cbc.ca/radio/thecurrent/chatgpt-human-labour-and-fake-news-1.6686210 |access-date=18 December 2022 |work=CBC |date=2022}}</ref>。マッシャブルのマイク・パールは、ChatGPTに複数の質問をし、回答の正確性をテストした。一例では、彼が「[[中央アメリカ]]で、[[メキシコ]]の次に大きな[[国]]」は何か質問した際、[[グアテマラ]]と回答した(正しい答えは[[ニカラグア]]であった)<ref name="MashableInfo">{{Cite web |url=https://mashable.com/article/chatgpt-amazing-wrong |title=The ChatGPT chatbot from OpenAI is amazing, creative, and totally wrong |date=3 December 2022 |last=Pearl |first=Mike |work=[[Mashable]] |access-date=5 December 2022}}</ref>。また、CNBCがある曲の歌詞を生成するよう求めた時、ChatGPTは実際の歌詞ではなく新しく自身で生成した歌詞を回答した<ref name="CNBC" />。
 
[[経済学者]]で[[マサチューセッツ工科大学]]教授の[[ダロン・アシモグル]]とサイモン・ジョンソンは、ChatGPTのような[[人工知能]]技術は従来の技術革新とは異なる特徴を持っており、経済成長を促進せず経済全体に悪影響を与えると指摘した。つまり、AIは労働需要の減退と賃金の減少を招き、需要を減退させ経済全体を縮小させる。アシモグルらはAIを推進する大企業の姿勢に懸念を示し、こう述べた<ref name="ps-acemoglu-chatgpt">{{cite web|url=https://www.project-syndicate.org/commentary/chatgpt-ai-big-tech-corporate-america-investing-in-eliminating-workers-by-daron-acemoglu-and-simon-johnson-2023-02|title=What’s Wrong with ChatGPT?|website=Project Syndicate|accessdate=2023-4-27}}</ref>。
90 ⟶ 111行目:
[[Bleeping Computer]](ブリーピングコンピューター)のアクス・シャルマ(Ax Sharma)は、ChatGPTが[[フィッシング詐欺]]などを目的とするメールを書くことができると指摘し<ref name="BleepingComputerInfo">{{Cite web |url=https://www.bleepingcomputer.com/news/technology/openais-new-chatgpt-bot-10-dangerous-things-its-capable-of/ |title=OpenAI's new ChatGPT bot: 10 dangerous things it's capable of |date=6 December 2022 |last=Sharma |first=Ax |work=[[Bleeping Computer]] |access-date=6 December 2022}}</ref>、OpenAIの[[サム・アルトマン]]CEOは、ソフトウェアの開発が進むことによって、「[[サイバーセキュリティ]]における大きなリスク」などをもたらす可能性があることを記した。また、彼は今後10年で本物の[[強いAIと弱いAI|強いAI]]が開発されることになると予想し、それのリスクに真剣に向き合わなければいけないとした<ref name="ZDNET" />。
 
[[サイエンス・フィクション|SF]]作家の[[テッド・チャン]]は、『The New Yorker』誌の記事で、ChatGPTやその他の[[大規模言語モデル|LLM]]を[[非可逆圧縮]]形式の[[JPEG]]画像に例えた<ref>{{Cite web |last1=Chiang |first1=Ted |author1-link=Ted Chiang |title=ChatGPT Is a Blurry JPEG of the Web |url=https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web |website=The New Yorker |access-date=17 February 2023 |date=9 February 2023}}</ref>。
 
<blockquote>
ChatGPTをWeb上のあらゆるテキストを不鮮明なJPEGにしたものと考えてみよう。JPEGが高解像度の画像の情報を保持するのと同じように、[[Web]]上の情報の多くを保持するが、正確なビット列を探しても見つからず、得られるのは近似値だけになる。しかし、ChatGPTが得意とする文法的な文章で表現しているため、大抵は許容範囲に収まる。〔…〕また、そのような考え方はChatGPTのような大規模な言語モデルが陥りやすい「ハルシネーション(幻覚」、つまり事実に基づく質問に対してAIが作り出す無意味な回答を理解する方法でもある。このような幻覚は圧縮された人工物であるが、それを判別するためには、ウェブや私たち自身の世界の知識であるところのオリジナルと比較する必要がある。もし圧縮アルゴリズムが、オリジナルの99パーセントが破棄された後に、テキストを再構築するように設計されているなら、生成される相当部分は完全に捏造されたものであると予想されるからである。
</blockquote>
 
104 ⟶ 125行目:
ChatGPTはコンテンツポリシーに抵触する可能性のある入力への回答は拒否する仕様になっているが、[[プロンプト・エンジニアリング]]などを使って回避する方法が2022年12月に見つかっている<ref>{{Cite journal|last=Zvi|date=December 2, 2022|title=Jailbreaking ChatGPT on Release Day|url=https://www.lesswrong.com/posts/RYcoJdvmoBbi5Nax7/jailbreaking-chatgpt-on-release-day|journal=|language=en}}</ref>。これによって、ChatGPTに攻撃的や不適切な回答を生成させることが可能となっている<ref>{{Cite news |last1=Vincent |first1=James |title=OpenAI's new chatbot can explain code and write sitcom scripts but is still easily tricked |url=https://www.theverge.com/23488017/openai-chatbot-chatgpt-ai-examples-web-demo |access-date=January 6, 2023 |work=The Verge |date=December 1, 2022 |archive-date=January 17, 2023 |archive-url=https://web.archive.org/web/20230117070943/https://www.theverge.com/23488017/openai-chatbot-chatgpt-ai-examples-web-demo |url-status=live}}</ref>。
 
[[2023年]]3月28日、[[イーロン・マスク]]、[[スティーブ・ウォズニアック]]、[[ヨシュア・ベンジオ]]、[[スチュアート・ラッセル]]、[[ゲイリー・マーカス]]などの著名人や専門家が署名した[[NPO]]「Future of Life Institute」の公開書簡が発表され、「人間に匹敵する知能を持つAIシステムは、社会と[[人類]]への甚大なリスクになり得る」と指摘。最新の大規模言語モデルであるGPT-4より強力なAIの訓練を少なくとも6ヶ月停止するように要請した<ref name="bbc-65135281">{{Cite web|和書|url=https://www.bbc.com/japanese/65135281|title=イタリア当局、人工知能チャットボット「ChatGPT」を一時的にブロック|accessdate=2023-4-5|website=BBC}}</ref><ref>{{Cite web|和書|url=https://www.asahi.com/ajw/articles/14874305|title=Musk, scientists call for halt to AI race sparked by ChatGPT |accessdate=2023-4-5|website=The Asahi Shimbun}}</ref><ref>{{Cite web|url=https://www.theguardian.com/technology/2023/mar/31/ai-research-pause-elon-musk-chatgpt|title=Letter signed by Elon Musk demanding AI research pause sparks controversy|accessdate=2023-4-5|website=The Guardian}}</ref>。
 
{{See also|[[汎用人工知能による人類滅亡のリスク]]}}
 
== 学術界の反応 ==
学術界では人間の生産性を上げることができるという声があり、大学によるとChatGPTのプロンプトエンジニア授業はすでに存在しているが<ref>{{Cite web |和書|title=Prompt Engineering for ChatGPT |url=https://www.coursera.org/learn/prompt-engineering |website=Coursera |access-date=2023-05-28 |language=ja}}</ref>、ChatGPTは論文の冒頭や一部の節を書くことができ、倫理的な疑問が上がっている<ref>{{Cite web |date=January 10, 2023 |last=Bushard |first=Brian |title=Fake Scientific Abstracts Written By ChatGPT Fooled Scientists, Study Finds |url=https://www.forbes.com/sites/brianbushard/2023/01/10/fake-scientific-abstracts-written-by-chatgpt-fooled-scientists-study-finds/ |access-date=January 30, 2023 |website=Forbes |language=en |archive-date=February 3, 2023 |archive-url=https://web.archive.org/web/20230203051254/https://www.forbes.com/sites/brianbushard/2023/01/10/fake-scientific-abstracts-written-by-chatgpt-fooled-scientists-study-finds/ |url-status=live}}</ref>。なお、複数の論文が既にChatGPTを共同著者として挙げていることが知られている<ref>{{Cite journal|last=Stokel-Walker|first=Chris|date=January 18, 2023|title=ChatGPT listed as author on research papers: many scientists disapprove|url=https://www.nature.com/articles/d41586-023-00107-z|journal=Nature|volume=613|issue=7945|pages=620–621|language=en|doi=10.1038/d41586-023-00107-z|pmid=36653617|s2cid=255969365|access-date=January 30, 2023|archive-date=January 30, 2023|archive-url=https://web.archive.org/web/20230130142004/https://www.nature.com/articles/d41586-023-00107-z|url-status=live}}</ref>。
 
[[アトランティック誌]]はChatGPTの学界、特に卒業論文などへの影響はまだ把握できる段階ではないと指摘したが<ref>{{Cite web |last=Marche |first=Stephen |date=December 6, 2022 |title=The College Essay Is Dead |url=https://www.theatlantic.com/technology/archive/2022/12/chatgpt-ai-writing-college-student-essays/672371/ |access-date=December 8, 2022 |website=[[The Atlantic]] |archive-date=January 24, 2023 |archive-url=https://web.archive.org/web/20230124042209/https://www.theatlantic.com/technology/archive/2022/12/chatgpt-ai-writing-college-student-essays/672371/ |url-status=live}}</ref>、[[カリフォルニア州]]のある高校教師はChatGPTが「[[高校]]での[[英語教育]]の終焉」を招いていると主張した<ref>{{Cite news |last=Herman |first=Daniel |date=December 9, 2022 |title=The End of High-School English |url=https://www.theatlantic.com/technology/archive/2022/12/openai-chatgpt-writing-high-school-english-essay/672412/ |access-date=December 12, 2022 |website=[[The Atlantic]] |archive-date=January 20, 2023 |archive-url=https://web.archive.org/web/20230120053725/https://www.theatlantic.com/technology/archive/2022/12/openai-chatgpt-writing-high-school-english-essay/672412/ |url-status=live}}</ref>。[[ネイチャー]]のChris Stokel-Walkerは、[[教師]]は[[生徒]]が課題をChatGPT任せにしていることを問題視するべきだと指摘した<ref>{{Cite journal|last=Stokel-Walker|first=Chris|date=December 9, 2022|title=AI bot ChatGPT writes smart essays — should professors worry?|url=https://www.nature.com/articles/d41586-022-04397-7|journal=[[Nature (journal)|Nature]]|doi=10.1038/d41586-022-04397-7|pmid=36494443|access-date=December 19, 2022|s2cid=254530623|archive-date=January 17, 2023|archive-url=https://web.archive.org/web/20230117192149/https://www.nature.com/articles/d41586-022-04397-7|url-status=live}}</ref>。[[NPR (米国公共ラジオ放送)|NPR]]のEmma Bowmanは、学生がAIを使って不正を試みても、AIは偏見を含む、権威のある人のような口調とともに意味のない回答を生成する場合があり、AIがどれだけ素晴らしく見える回答を生成しても、生成内容と実際の事実は異なることがあると述べた<ref>{{Cite web |last=Bowman |first=Emma |title=A new AI chatbot might do your homework for you. But it's still not an A+ student |url=https://www.npr.org/2022/12/19/1143912956/chatgpt-ai-chatbot-homework-academia |date=December 19, 2022 |access-date=December 19, 2022 |website=[[NPR (米国公共ラジオ放送)|NPR]] |archive-date=January 20, 2023 |archive-url=https://web.archive.org/web/20230120095239/https://www.npr.org/2022/12/19/1143912956/chatgpt-ai-chatbot-homework-academia/ |url-status=live}}</ref>。
 
{{仮リンク|ファーマン大学|en|Furman University}}教授のDarren Hickは、ある学生によって提出された論文がChatGPTの「型」に気が付いたことを話した。彼がその論文をGPT探知サイトにかけてみると、AIが生成した文章である可能性は99.9%であるとの結果が出たが、確証は得られなかった。問題の論文を提出した学生に質問したところ、GPTを使っていたことを白状したため、同学生は落第処分を受けた<ref>{{Cite news |title=Students using ChatGPT to cheat, professor warns |url=https://nypost.com/2022/12/26/students-using-chatgpt-to-cheat-professor-warns/ |last=Mitchell |first=Alex |access-date=December 30, 2022 |work=The New York Post |date=December 26, 2022 |archive-date=February 3, 2023 |archive-url=https://web.archive.org/web/20230203051258/https://nypost.com/2022/12/26/students-using-chatgpt-to-cheat-professor-warns/ |url-status=live}}</ref>。Hickは、AI生成の論文を[[コピペ]]したことが強く疑われる場合には、提出した生徒に「[[アドホック]]」として個別に口頭での試験行うことを提案した<ref>{{Cite news |last1=Allen |first1=Mike |title=Professor warns about chatbot cheating: "Expect a flood" |url=https://www.axios.com/2022/12/26/chatbot-cheating-university-warning-chatgpt |access-date=December 30, 2022 |work=Axios |date=December 26, 2022 |language=en |archive-date=February 3, 2023 |archive-url=https://web.archive.org/web/20230203051357/https://www.axios.com/2022/12/26/chatbot-cheating-university-warning-chatgpt |url-status=live}}</ref>。ある[[プリンストン大学]]生は、入力された文章のどれくらいがAI生成かを判断できるプログラムを作成し、"GPTZero"と名付け<ref>{{Cite news |last1=Rosalsky |first1=Greg |last2=Peaslee |first2=Emma |date=January 17, 2023 |title=This 22-year-old is trying to save us from ChatGPT before it changes writing forever |work=NPR |url=https://www.npr.org/sections/money/2023/01/17/1149206188/this-22-year-old-is-trying-to-save-us-from-chatgpt-before-it-changes-writing-for |access-date=January 18, 2023 |quote=On January 2nd, Edward released his app. He named it GPTZero. It uses ChatGPT against itself, checking whether "there's zero involvement or a lot of involvement" of the AI system in creating a given text. [...] Along these lines, one obvious application for GPTZero is to help teachers identify whether their students are plagiarizing their essays from ChatGPT. |archive-date=January 18, 2023 |archive-url=https://web.archive.org/web/20230118055050/https://www.npr.org/sections/money/2023/01/17/1149206188/this-22-year-old-is-trying-to-save-us-from-chatgpt-before-it-changes-writing-for |url-status=live}}</ref>、[[盗用]]を防ぐツールとして貸し出している<ref>{{Cite web |date=January 4, 2023 |title=Did ChatGPT Write That? A College Student Created an AI Essay Detector |url=https://gizmodo.com/chatgpt-ai-essay-detector-college-princeton-edward-tian-1849946535 |access-date=January 4, 2023 |website=Gizmodo |last=Ropek |first=Lucas |language=en |archive-date=January 4, 2023 |archive-url=https://web.archive.org/web/20230104225814/https://gizmodo.com/chatgpt-ai-essay-detector-college-princeton-edward-tian-1849946535 |url-status=live}}</ref><ref>{{Cite news |last=Tran |first=Tony Ho |date=January 4, 2023 |title=A College Kid Built an App That Sniffs Out Text Penned by AI |language=en |work=The Daily Beast |url=https://www.thedailybeast.com/princeton-student-edward-tian-built-gptzero-to-detect-ai-written-essays |access-date=January 6, 2023 |archive-date=January 6, 2023 |archive-url=https://web.archive.org/web/20230106162856/https://www.thedailybeast.com/princeton-student-edward-tian-built-gptzero-to-detect-ai-written-essays |url-status=live}}</ref>。
 
2022年12月、[[ニューヨーク市教育局]]がChatGPTへのアクセスをブロックしたことが報じられた<ref>{{Cite news |title=New York City Department of Education Bans ChatGPT |url=https://www.govtech.com/education/k-12/new-york-city-department-of-education-bans-chatgpt |access-date=16 February 2023 |work=GovTech |date=10 January 2023 |language=en}}</ref>。翌年1月3日ごろ、同局がChatGPTの利用を制限することを正式に明らかにした<ref>{{Cite news |title=NYC Bans Students and Teachers from Using ChatGPT |url=https://www.vice.com/en/article/y3p9jx/nyc-bans-students-and-teachers-from-using-chatgpt |last=Cole |first=Samantha |access-date=January 5, 2023 |work=www.vice.com |date=January 4, 2023 |language=en |archive-date=January 5, 2023 |archive-url=https://web.archive.org/web/20230105025338/https://www.vice.com/en/article/y3p9jx/nyc-bans-students-and-teachers-from-using-chatgpt |url-status=live}}</ref><ref>{{Cite web |date=January 4, 2023 |title=New York City Schools Ban ChatGPT to Head Off a Cheating Epidemic |url=https://gizmodo.com/new-york-city-schools-chatgpt-ban-cheating-essay-openai-1849949384 |first=Lucas |last=Ropek |access-date=January 6, 2023 |website=Gizmodo |language=en |archive-date=January 6, 2023 |archive-url=https://web.archive.org/web/20230106162900/https://gizmodo.com/new-york-city-schools-chatgpt-ban-cheating-essay-openai-1849949384 |url-status=live}}</ref><ref>{{Cite news|和書 |title=ニューヨーク市、学校での「ChatGPT」利用を禁止 |newspaper=[[CNET Japan]] |date=2023-01-05 |url=https://japan.cnet.com/article/35198179/ |access-date=2023-02-22 |archive-date=2023-02-04 |archive-url=https://web.archive.org/web/20230204214944/https://japan.cnet.com/article/35198179/}}</ref>。
125 ⟶ 146行目:
同文章では、機密情報や[[個人情報]]の扱いについても注意喚起を行っており、安易にChatGPTにそれらの情報を送信することは危険であることを指摘し、業務で知り得た機密情報、未公開の[[発明]]内容、研究費などの申請内容、[[入学試験]]問題の原稿、個人情報などは質問に含めてはならないとしている<ref name="u-tokyo-20230403-generative-ai"/>。
 
東京大学の方針として、[[学位論文]]や[[レポート]]については、生成系AIのみを使用して作成することを禁止する一方で、実際には利用を検知することは困難であることから、論文やレポートなどの書面審査だけでなく、対面での口頭審査・筆記試験などを組み合わせて、本人が作成したのか検証する必要が出てくるとした<ref name="u-tokyo-20230403-generative-ai"/>。
 
2023年に5月18日、東京大学でChatGPTを[[裁判官]]役とした模擬裁判のイベントが開催された<ref>{{Cite web |和書|title=AI法廷の模擬裁判 |url=https://www.aimocktrial.com/ |website=www.aimocktrial.com |access-date=2023-05-20 |language=ja}}</ref><ref name=":3">{{Cite web |和書|title=ChatGPTが裁判官?AIに裁かれる未来、受け入れますか|NHK |url=https://www3.nhk.or.jp/news/special/sci_cul/2023/05/special/ai-judgement/ |website=NHK NEWS WEB |access-date=2023-05-20 |language=ja |last=日本放送協会}}</ref>。弁護士からは妥当な判決で裁判の補助ツールとして有用であるという評価を受けたが、後から入力された情報が重視される癖のような反応も確認された<ref name=":3" />。この癖に合わせて通常の裁判とは異なる進行で行われた<ref name=":3" />。
 
== 問題 ==
133 ⟶ 154行目:
[[Reddit]]ではChatGPTを悪用した[[スパム (メール)|スパム]]が大量に発生しており、「大災害」と評されるほどに対応に苦慮している。ChatGPTのリリース後、[[大麻]]やポルノ、ギャンブル、ゲームの宣伝を目的にしていると思われるスパムが急増し、モデレーターは大量のbotアカウントの凍結に追われた。Redditでは従来も宣伝目的のスパムや[[アストロターフィング]]が問題だったが、ChatGPTはこの問題を大きく悪化させている。従来のスパム行為は[[コピー・アンド・ペースト]]に依存して単純だったが、ChatGPTは新しい文面を簡単に生成できることから、より対処が困難になった<ref>{{Cite web|url=https://www.vice.com/en/article/jg5qy8/reddit-moderators-brace-for-a-chatgpt-spam-apocalypse|title=Reddit Moderators Brace for a ChatGPT Spam Apocalypse|website=Vice|accessdate=2023-4-12}}</ref>。
 
[[2023年]]5月、ChatGPTを使って鉄道事故のニュースを捏造してインターネット上に拡散した男が、[[甘粛省]]の警察により逮捕された。男は「クリック数を増やすためだった」と語った。[[中国]]では[[ディープフェイク]]を規制する法律が制定されており、逮捕はこの法律に基づいたものだった<ref>{{Cite web|和書|url=https://news.tv-asahi.co.jp/news_international/articles/000298697.html|title=ChatGPT使い偽情報を拡散か 中国で男拘束|website=テレビ朝日|accessdate=2023-5-12}}</ref><ref>{{Cite web|url=
https://www.cnbc.com/2023/05/09/chinese-police-arrest-man-who-allegedly-used-chatgpt-to-spread-fake-news.html|title=Chinese police arrest man who allegedly used ChatGPT to spread fake news in first case of its kind|website=CNBC|accessdate=2023-5-12}}</ref><ref>{{Cite web|url=https://www.cnbc.com/2022/12/23/china-is-bringing-in-first-of-its-kind-regulation-on-deepfakes.html|title=China is about to get tougher on deepfakes in an unprecedented way. Here’s what the rules mean|website=CNBC|accessdate=2023-5-12}}</ref>。
 
=== 機密情報の流出 ===
ChatGPTは[[オプトアウト]]を申請しない限り、ユーザーの入力内容が[[OpenAI]]によって利用されることが規約で明記されており、OpenAIは機密情報を入力しないようにユーザーに警告している。[[サムスン電子]]では半導体データベースや機器のソースコード、会議の議事録などを社員が誤って入力するなどして、ChatGPTに関連する3件の流出事故が発生したことを報告し、全面的にChatGPTを含む人工知能ツールの使用を禁止した。『[[フォーブス (雑誌)|フォーブス]]』誌によれば、プロンプトとして送信したデータが、OpenAI等の運営企業のサーバーに保存され、容易にアクセスや削除ができない状態になることを懸念したとされる<ref>{{citeCite web|和書|url=https://www.gizmodo.jp/2023/04/samsung-leaks-confidential-information-to-chatbot.html|title=サムスン、機密情報をChatGPTにリークして大問題に|accessdate=2023-4-17|website=GIZMODO}}</ref><ref name="forbes-samsung">{{citeCite web|和書|url=https://forbesjapan.com/articles/detail/62905|title=サムスン、ChatGPTの社内使用禁止 機密コードの流出受け|accessdate=2023-5-4|website=Forbes}}</ref>。[[Amazon.com|Amazon]]でも、社内の内部データがChatGPTが生成する回答に似ている事例が見られたことから、社員が誤ってプロンプトに社外秘の資料等を入力するなどして、訓練データに使用された可能性を懸念し、ソースコード等の機密情報を入力しないように注意喚起を行っている<ref>{{citeCite web|和書|url=https://www.gizmodo.jp/2023/01/amazon-chatgpt-ai-software-job-coding.html|title=Amazonが社員に注意喚起した「ChatGPTに共有してはいけないモノ」|website=GIZMODO|accessdate=2023-4-23}}</ref>。
 
[[Apple]]も、社内の機密データを外部に流出させる可能性があるという懸念から、ChatGPTや[[GitHub Copilot]]などの人工知能ツールの使用を一部禁止している<ref name="forbes-63307">{{citeCite web|和書|url=https://forbesjapan.com/articles/detail/63307|title=アップルも従業員のChatGPT使用を禁止、データ流出を懸念|website=Forbes|accessdate=2023-5-20}}</ref>。
 
[[イスラエル]]の[[情報セキュリティ]]企業「Team8」の報告書では、ChatGPTのような[[生成AI]]ツールを利用する企業は、顧客情報や企業秘密を流出させるリスクがあると指摘している。『[[ブルームバーグ (企業)|ブルームバーグ]]』によれば、このレポートは多くの米企業の最高情報セキュリティ責任者が寄稿者として記載されており、[[米国家安全保障局]](NSA)元局長のマイケル・ロジャーズにも内容が支持されている<ref>{{citeCite web|和書|url=https://www.bloomberg.co.jp/news/articles/2023-04-19/RTC4B3T1UM0W01|title=ChatGPTなど生成AIの企業利用、機密情報漏えいの恐れも-リポート|website=Bloomberg|accessdate=2023-4-20}}</ref>。
 
=== データ倫理・著作権 ===
ChatGPTの訓練に使用された著作物の利用を巡り、データ倫理や[[著作権]]上の問題が指摘されている。[[欧州連合]]で検討中の生成AI規制法案では、システム構築時に使用する著作物について情報の表示を義務づけられる見込みである。生成AIの普及に伴い、訓練データに著作物が使われることへの懸念が出版社やクリエイターを中心に広がっている<ref>{{citeCite web|和書|url=https://jp.wsj.com/articles/europe-to-chatgpt-disclose-your-sources-8d5ef01b|title=「チャットGPT」にEUが要求:情報源を開示せよ|website=The Wall Street Journal|accessdate=2023-4-28}}</ref>。
 
ChatGPTをはじめとする[[生成AI]]のリスクに対して、欧州を中心に規制の動きが広がっており、当初は著作物の利用についても直接規制する予定だったが、透明性を確保する方向に緩和された。背景には[[Google]]や[[Meta]]などの巨大IT企業が規制を回避するための[[ロビー活動]]を活発化させていることがあり、推計では1億ドル(約137億円)に及ぶ資金を費やしている<ref>{{citeCite web|和書|url=https://www.asahi.com/articles/DA3S15627959.html|title=対EU、うごめく巨大IT AI規制にらみロビー活動|website=朝日新聞|accessdate=2023-5-4}}</ref>。
 
ChatGPTの登場に関連して、日本においては[[2018年]]に成立した改正[[著作権法]]が問題視されている。この30条4項では人工知能の訓練データに文章や画像を利用する場合に、営利・非営利を問わず著作物を利用できることを定めており、先進国で最も緩い法規制の枠組みになっている。「著作権者の利益を不当に害する場合」は利用できないとしているが、それが具体的にどのようなケースに該当するかは不明瞭である。法改正に当たっては一部の[[弁護士]]や大学教授らで構成されたワーキングチームが主導したが、そのリスクは十分に十分に説明されなかった。『[[読売新聞]]』の取材によれば、権利者団体から権利侵害を前提としたビジネスモデルへの懸念が示されたが、ワーキングチームはリスクは「ゼロか軽微」と説明した<ref name="yomiuri-ai-copyright">『読売新聞』2023年5月16日号 朝刊 1-2面</ref><ref name="yomiuri-20230516-OYT1T50023">{{citeCite web|和書|url=https://www.yomiuri.co.jp/national/20230516-OYT1T50023/|title=政府、法改正議論時にAIの著作権リスク説明せず…先進国で最も緩い法規制の枠組みに|website=読売新聞|accessdate=2023-5-30}}</ref>。
 
この著作権法の規定に多くの[[漫画家]]、[[イラストレーター]]、[[音楽家]]、[[俳優]]、[[芸能人]]、[[新聞社]]、[[出版社]]が懸念を示しており、俳優や音楽家らで結成された日本芸能従事者協会はアンケートを実施し、94.1%がAIによる権利侵害に懸念を示し、「創作者の尊厳が軽んじられないような法制度」を求める意見などが表明された。[[日本音楽著作権協会]]も、「営利目的で行われる情報分析サービスまで権利制限の対象とすることは不当」であると主張した。主要な[[出版社]]で作る日本書籍出版協会、学術論文の著作権を管理する学術著作権協会も改正当時は生成AIを前提とした説明が行われなかったと回答している。日本新聞協会も、[[生成AI]]による記事や写真の無断利用や誤情報について懸念する見解を発表した<ref name="yomiuri-ai-copyright">『読売新聞』2023年5月16日号 朝刊 1-2面</ref><ref name="yomiuri-20230516-OYT1T50023">{{citeCite web|和書|url=https://www.yomiuri.co.jp/national/20230516-OYT1T50023/|title=政府、法改正議論時にAIの著作権リスク説明せず…先進国で最も緩い法規制の枠組みに|website=読売新聞|accessdate=2023-5-30}}</ref><ref>{{citeCite web|和書|url=https://www.asahi.com/articles/ASR5K51TVR5KULFA019.html|title=新聞協会、生成AIに対する見解表明「記事や写真の無断利用を懸念」|website=朝日新聞|accessdate=2023-6-1}}</ref>。
 
2023年6月には、[[カリフォルニア州]]で、自身の本を同意や補償なしに、無断で訓練データに使用したとして、複数の作家が運営元のOpenAIを[[著作権侵害]]で訴える事件も発生している<ref name="bloomberglaw-openai-copyright-suit">{{cite web|url=https://news.bloomberglaw.com/ip-law/openai-facing-another-copyright-suit-over-ai-training-on-novels |title=OpenAI Legal Troubles Mount With Suit Over AI Training on Novels|website=Bloomberg|accessdate=2023-6-30}}</ref>。
 
ChatGPTが世界に与える最も大きな影響のひとつは、人工知能の倫理観とも言われている<ref>{{Cite web |和書|title=ChatGPT Teach-Out |url=https://www.coursera.org/learn/chatgpt-teach-out |website=Coursera |access-date=2023-05-29 |language=ja}}</ref>。
 
=== 個人情報保護 ===
[[2023年]]6月2日、[[日本政府]]の個人情報保護委員会は、ChatGPTの運営会社OpenAIに対する行政指導を行った。同委員会は[[個人情報保護法]]に基づき、人種や信条、病歴や犯罪歴などの重要な個人情報を取集しないように要求し、やむを得ずに取得した場合は削除や匿名化の措置を求め、本人の同意なく個人情報を機械学習に使用した場合に、個人情報保護法に違反する可能性があることも警告した。また、利用規約についても日本語での説明がないことを問題視した。生成AIを巡る[[行政指導]]はこれが初であるとされる<ref>{{citeCite web|和書|title=OpenAIに行政指導 個人情報保護委、取得手法に懸念|url=https://www.nikkei.com/article/DGXZQOUA023IJ0S3A600C2000000/|website=日本経済新聞|accessdate=2023-6-4}}</ref><ref>{{citeCite web|和書|title=政府、オープンAIに行政指導 病歴など個人情報侵害の恐れ|url=https://www.jiji.com/jc/article?k=2023060200571|website=時事通信|accessdate=2023-6-4}}</ref>。
 
同月、個人情報を違法に収集しているとして、[[カリフォルニア州]]でChatGPTの提供元OpenAIに対しての集団訴訟が提起された。訴状によると、OpenAIは[[GPT-4]]を搭載したサードパーティのアプリケーションからもデータを収集しているとされ、[[Snapchat]]に投稿された画像データや、[[Spotify]]における楽曲のお気に入り設定、[[Stripe]]での金融情報などが含まれているとした<ref>{{citeCite web|和書|url=https://www.asahi.com/articles/ASR6Y2J33R6YUHBI009.html|title=オープンAI、米利用者が集団訴訟 「個人情報を違法に収集」|website=朝日新聞|accessdate=2023-6-30}}</ref><ref>{{citeCite web|和書|url=https://japan.zdnet.com/article/35205953/|title=OpenAIに集団訴訟、「ChatGPT」などの訓練用データ収集で|website=ZDNet|accessdate=2023-6-30}}</ref>。
 
2023年7月13日、[[連邦取引委員会]](FTC)はChatGPTの運営企業OpenAIに対して、個人情報保護等の[[消費者保護]]の観点から調査を開始した。FTCはChatGPTの回答に含まれる誤情報の管理体制や訓練データ、アルゴリズムの詳細についても説明を求めている<ref>{{Cite web|和書|url=https://www.nikkei.com/article/DGXZQOGN13DEL0T10C23A7000000/|title=米FTC、ChatGPTのOpenAIを調査 消費者保護で|website=[[日本経済新聞]]|accessdate=2023-7-19}}</ref><ref>{{Cite web|和書|url=https://forbesjapan.com/articles/detail/64585|title=米FTC、OpenAIを調査 ChatGPTの誤情報出力めぐり|website=Forbes JAPAN|accessdate=2023-7-19}}</ref>。
 
=== データのラベリング ===
178 ⟶ 201行目:
このプロジェクトに関わったメンバーは、ChatGPTの技術の潜在的なリスクを指摘している<ref name="platformer-chatgpt">{{Cite web |title=Microsoft just laid off one of its responsible AI teams |url=https://www.platformer.news/p/microsoft-just-laid-off-one-of-its |website=www.platformer.news |access-date=2023-03-23 |language=en |first=Zoë |last=Schiffer}}</ref>。
 
プリンストン大学教授の[[:en:Arvind_Narayanan|アーヴィンド・ナラヤナン]]も、ChatGPTに対して批判的であり、またメディアが行う人工知能関連の報道に問題があることを指摘している。ナラヤナンはAIが人間と同じように学習すると暗示して人間の知能とAIを比較したり、企業の広報担当者や研究者といった利害関係者の発言を、中立的な立場のように扱ってはならないとしている<ref>{{Cite web |和書|title=インチキAIに騙されないために |url=https://wirelesswire.jp/2023/01/83851/ |access-date=2023-04-01 |language=ja}}</ref>。ミシガン大学は、メールの受信者が、自分が貰ったメールが送信者本人ではなくChatGPTによって生成されたものだと知れば、不快に思うかもしれないという社会倫理の問題に言及した<ref>{{Cite web |title=ChatGPT Teach-Out |url=https://online.umich.edu/teach-outs/chatgpt-teach-out/lessons/ethical-vs-unethical-use/ |website=online.umich.edu |access-date=2023-06-17 |language=en}}</ref>。
 
== 脚注 ==
189 ⟶ 212行目:
* [[バーチャルアシスタント]]
* [[スマートスピーカー]]
* [[人工無脳]](チャットボット]]
* [[Bard]] - [[Google]]による会話型人工知能
 
== 外部リンク ==
* {{Official website|https://chat.openai.com/chatgpt}}{{en icon}}
* {{Official website|https://chat.openai.com/|ChatGPT}}{{en icon}} - ウェブ版
* {{Twitter|ChatGPTapp|ChatGPTapp【公式】}}
 
* [https://openai.com/blog/chatgpt Introducing ChatGPT]{{en icon}}
* [https://arxiv.org/abs/2203.02155 White paper]{{en icon}} - for InstructGPT, ChatGPT's predecessor
* [https://twitter.com/ChatGPTBot/with_replies @ChatGPTBot], an unofficial ChatGPT [[ゲートウェイ|gateway]]{{en icon}}
* [https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/ Stephen Wolfram (2023), "What Is ChatGPT Doing ... and Why Does It Work?," Stephen Wolfram Writings.] {{en icon}} - Stephen Wolfram Writings
* {{YouTube|TVaB5R4-uOE|日本ディープラーニング協会 - JDLA緊急企画!「生成AIの衝撃」~ ChatGPTで世界はどう変わるのか? ~}}
{{OpenAI}}{{主な人工知能}}{{Normdaten}}
* [https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/ Stephen Wolfram (2023), "What Is ChatGPT Doing ... and Why Does It Work?," Stephen Wolfram Writings.] {{en icon}}
 
{{DEFAULTSORT:ちやつとしいひいてい}}
[[Category:OpenAI]]
208 ⟶ 236行目:
[[Category:人工知能アプリケーション]]
[[Category:教師あり学習]]
[[Category:2022年開設のウェブサイト]]