Vercelの v0 でUIを作り、それを Cloudflare Workers のAIバックエンドに接続する手順は、驚くほどスムーズです。
フロントエンド(見た目)は v0、バックエンド(知能)は Cloudflare という最強の組み合わせを実現する具体的なステップを解説します。
1. v0 で「オシャレなチャットUI」を生成する
まず、v0.dev にアクセスし、プロンプトを入力します。
入力プロンプト例:
「モダンで清潔感のある、営業支援AIチャットのUIを作って。右下にフローティングボタンがあり、クリックするとチャット窓が開く形式。Next.js, Tailwind CSS, Lucide Reactを使用。メッセージ入力欄と、AIの回答エリア、クイック返信ボタンを付けて。」
生成されたコードの中で、「送信ボタン」を押した時の処理(handleSubmit など)を、後でCloudflareに接続するために確認しておきます。
2. Cloudflare Workers AI でバックエンドを準備する
Cloudflare側で、AIが回答を返すための「エンドポイント」を作ります。
** wranglerでのセットアップ例:**
Bash
npm create cloudflare@latest chat-backend -- --template worker
index.ts(バックエンドのコード例):
CloudflareのWorkers AI(Llama 3など)を使って、送られてきたメッセージに返答するAPIを作成します。
TypeScript
export default {
async fetch(request, env) {
const { message } = await request.json();
// AIモデル(Llama-3など)を呼び出す
const response = await env.AI.run('@cf/meta/llama-3-8b-instruct', {
messages: [
{ role: 'system', content: 'あなたは優秀な営業支援アシスタントです。' },
{ role: 'user', content: message }
]
});
return new Response(JSON.stringify(response), {
headers: {
'Content-Type': 'application/json',
'Access-Control-Allow-Origin': '*' // フロントエンドからのアクセスを許可
}
});
}
}
これを npx wrangler deploy で公開し、発行された URL をメモします。