管理者

AIテキスト

VSCodeとOllamaでGithub Copilotをローカルで使うガイド

はじめに:GitHub Copilotのbyok機能でOllamaとローカルで接続Visual Studio Code(VSCode)のGitHub Copilot拡張機能には、byok(Bring Your Own Key)という仕組みが...
AIテキスト

VSCodeでOllamaを呼び出す:拡張機能Cotinueを利用する方法

導入:ローカルAIで開発効率を高めるクラウドに頼らず、手元のマシンで大規模言語モデル(LLM)を動かせる環境として注目されているのが Ollama です。本記事では、このOllamaを Visual Studio Code(VS Code)...
基礎知識

Windowsでダウンロードした実行ファイルを安全に使う方法(Macとの違いも整理)

Windowsでダウンロードした実行ファイルを安全に使う方法インターネットから取得した .exe / .msi / .bat / .ps1 などの実行ファイルはそのまま安全に実行できるとは限りません。本記事では、Windowsでの実行ファイ...
AIテキスト

OllamaをCLIで使う:上級者向け導入ガイド

この記事のポイント(30秒で要点)OllamaをCLI(コマンドライン)で使う方法を解説。GUIでは触れられない高度な操作が可能インストール → 動作確認 → モデル実行までの最短手順を収録macOS/Linux/Windows(WSL)対...
AIテキスト

Ollamaとは?AIの新たな可能性を探る

この記事のポイント(30秒で要点)OllamaはローカルでLLM(大規模言語モデル)を動かせる無料アプリGUI版(デスクトップアプリ)は初心者でも簡単に使える直感的設計モデル選択・履歴管理・入力補完までマウス操作で完結この記事では導入~初回...
基礎知識

Macでダウンロードした実行ファイルを安全に使う方法

Macでダウンロードした実行ファイルを安全に使う方法Macでインターネットからダウンロードした実行ファイルは、macOSのセキュリティ機能によりそのままでは実行できないことがあります。これはGatekeeperやファイルの隔離属性、アクセス...