ChatGPTなどの生成AIを自分のパソコン上で実行できるOpen Interpreter。自然言語でのやり取りだけでなく、指示した内容をパソコン上で実際に実行できるという画期的な機能も備えています。
Open Interpreterで利用できるLLMは複数あり、そのなかでもCode LlamaというLLMを使えば無料で利用できるようです。
そこで今回は、Open Interpreterを使い、Code Llamaで自分のPCを操作する方法について解説します。
Open Interpreterとは
Open Interpreterは、AI技術を利用してユーザーに自分のコンピュータ上でコードを実行する機能を提供するオープンソースツールです。
通常のコードインタプリタは、高レベルのプログラム言語をマシン可読のコードに変換します。しかしOpen Interpreterは、自然言語の説明から直接コードを解釈および生成できるのが特徴です。
たとえば、Open Interpreterで「デスクトップ上にpythonファイルを作ってください。」と指示すると、Open Interpreterが指示を理解して実際に作成してくれます。また、ChatGPTのように自然なコミュニケーションをとることも可能です。
Open InterpreterはPythonやJavaScript、Shellなどのプログラミング言語をサポートしています。これにより多くの開発者とユーザーが、それぞれのニーズとスキルセットに応じてOpen Interpreterを利用できるのが魅力です。
Open Interpreterの注意点
Open Interpreterを利用する場合、いくつかの注意点があります。
環境構築が若干難しい
Open Interpreterを使うには、プログラミング言語であるPythonを自分のPCへインストールしたり、 Pythonの実行環境であるAnaconda(アナコンダ)をインストールしたりする必要があります。
また、黒い画面に文字を打って操作する「CUI(シーユーアイ)」を使うため、非エンジニアにとって難易度が高く感じるかもしれません。
勝手にソフトをインストールすることがある
Open Interpreterを使って自然言語で指示する際、その内容を実現するために必要なソフトを勝手にインストールすることがあります。
たとえば、「Pythonで特定のWebページにアクセスするシステムを作って」と指示した場合、そのために必要なPythonのライブラリをインストールしてシステムを作ろうとします。
その結果、既存のソフトウェアとの互換性問題を引き起こしたり、システムの状態を理解するのが難しくなるのが懸念点です。
Open Interpreterを使用する際には、指示する内容によってどのようなライブラリやソフトをインストールし、それがシステムにどのような影響を与えるのか理解することが重要です。
データ損失やセキュリティ問題
Open Interpreterをローカル環境で使うと、自分のPC内のさまざまな場所へアクセスできます。そのため、ローカルへのアクセスに関する指示が原因でデータの損失やセキュリティ問題に発展する可能性があります。
Open Interpreterを導入する条件
Open Interpreterを導入する条件は下記のとおりです。
- Pythonのインストール(ver3.10以上)
- Anacondaのインストール
- Visual Studioのインストール(Windows 11の場合)
上記のプログラミング言語やソフトをインストールする必要があります。
Open Interpreterの使い方
Open InterpreterはGPT-4やGPT-3.5、Code LlamaなどのLLMに対応しています。GPTモデルは利用に応じて利用料が発生し、Code Llamaは無料で利用できるのが特徴です。
今回は、無料で利用できるCode Llamaを用いて、WindowsでOpen Interpreterを使う方法について解説します。
はじめに、「Anaconda power shell prompt」を開きます。
Open Interpreterを使うには、Pythonのバージョンが3.10以上必要なので、 PythonとAnacondaのバージョンを確認します。
Pythonのバージョンを確認するコード:python --version
Anacondaのバージョンを確認するコード:python --version
バージョンをチェックしたあとは、下記のコードを実行して、Open Interpreterをインストールします。
pip install open-interpreter
インストールが完了したあとは、Code Llamaをローカル環境で実行するために下記のコードを入力します。
interpreter --local
すると、下記画面のような選択肢が表示されます。
Parameter count:パラメーターの数値が少ないほど計算が早く、数値が大きいほど高精度
Quality:小さいほど処理が早く、大きいほど高性能
Use GPU?:GPUを使用するかどうか。サイズの大きいモデルだと壊れる可能性があるが、処理速度は速い
選択肢はテンキーで移動でき、Enterキーで決定します。今回は、Parameter Countを7B、QualityをSmall、GPUの利用にYes(Y)を選択します。
GPUの利用にYesを選択すると、modelのインストールに関する質問が来たのでYes(Y)を選択します。
すると、上記のようにエラーが表示されました。解決方法がわからず調べていると、下記の情報にたどり着きました。
in Windows 11 environment:install Visual Studio 2019/2022start a Developer Command Prompt(optional) conda activate envpip install llama-cpp-pythonworks like a charm
出典:GitHub:Code-Llama interface package not found. Install llama-cpp-python? #63
Visual Studioをインストールして「pip install llama-cpp-python」というコマンドを実行するとうまくいきそうなので、Visual Studioをインストールしてみましょう。
Visual Studioをインストールする
Visual Studioより
Visual Studioの公式サイトへアクセスして、「コミュニティ」欄の「無料ダウンロード」をクリックします。
Visual Studioより
ダウンロードしたインストーラーをダブルクリックで開くと、上記画面が表示されるんので「続行」をクリックします。
Visual Studioより
インストールの詳細画面が表示されたら「C++によるデスクトップ開発」にチェックを入れて、画面右下にある「インストール」をクリックしましょう。
Visual Studioより
インストール完了画面が表示されたら「OK」を押して完了です。パワーシェルの画面に戻り、下記のコマンドを実行しましょう。
pip install llama-cpp-python
「Successfully installed diskcache~」と表示されていればインストール完了です。改めて、「interpreter --local」と入力してCode Llamaをローカル環境で実行しましょう。
Use Interpreter -y to bypass this.Press CTRL-C to exit
上記のように表示されていればOKです。早速プロンプトを入力してみましょう。
Q:pythonを使って簡単な関数の例を作ってください。
A:Let's start with the basics. You want me to create a simple function that takes in two numbers as arguments and returns their sum. Here's an example of how you might do this;def add(x, y):return x + y
引数に指定された数字を足し算する関数を作ってくれました。次は、Open Interpreterならではの魅力である、ローカル環境での簡単な操作を支持してみましょう。
Q:デスクトップに"testhoge"という名前のhtmlファイルを作ってください。
A:touch testhoge.html Would you like to run this code?(y/n)
「touch testhoge.html」というコマンドを実行するか聞かれたので、Yes(y)を選択します。
すると、「現在の環境では「touch」という処理は利用できないが、「echo」や「print」という処理で実行で実行できるけどどうしますか?」という内容が表示されました。
おそらくですが、Open Interpreterは対応できるプログラミング言語しか実行できないため、Linuxコマンドである「Touch」という処理を実行できなかったのではないかと考えられます。
Open Interpreterの指示に従ってYes(y)を選択しましょう。
処理が完了したみたいなので、実際にデスクトップを見てみます。
デスクトップ上にはありませんでしたが、「Anaconda power shell」が指している場所に「testhoge.html」というファイルが作成されていました。Open Interpreterを使うと、自然言語の指示でローカルの処理を実行できることがわかります。
ライターからのヒトコト
今回初めてOpen Interpreterを使って感じたことは下記のとおりです。
- 画期的な機能だけど処理速度が遅い
- 環境構築の際、GPU利用の有無にYesではなくNoを指定していれば、Visual Studioをインストールせずに利用できたのかもしれない
- デスクトップ上にファイルを作るように指示したけれど、別の場所に作られていたという結果から、まだ精度に課題はありそう。
上記のように感じたことや懸念点があるので、これらも踏まえてOpen Interpreterの利用を検討してみてくださいね!
※上記コンテンツの内容やソースコードはAIで確認・デバッグしておりますが、間違いやエラー、脆弱性などがある場合は、コメントよりご報告いただけますと幸いです。
ITやプログラミングに関するコラム
- AGIの進化と影響とは?ビジネスから医療まで変えるAIの未来
- Pika Labsのウェイトリストに合格したので使ってみた!特徴と動画を生成する方法を紹介。
- Googleの「VideoPoet」が凄すぎる!プロンプトや画像から動画を自動生成。動画編集の常識が変わるかも。
- 【2024年】子どもにさせたい習い事は「英語」と「プログラミング教室」が人気。将来に必要だという理由が多数。
- AIに対する問題や否定的な意見とは?各国の動きや規制について紹介