Review or Reviews
테크, 개발, AI, 하드웨어 — 실사용 기반 리뷰와 가이드
최신 글
Best AI Models for RTX 3090 in 2026: Complete Benchmark + Buyer's Guide
Comprehensive benchmark of the best local AI models on RTX 3090 24GB VRAM. Real performance data, tokens per second, quality scores, GPU comparison, cost analysis, fine-tuning guide, and FAQs covering everything RTX 3090 LLM owners need.
DeepSeek R2 vs Qwen 3 vs Llama 4: Local LLM Benchmark 2026
Head-to-head benchmark of the three best local LLMs in 2026: DeepSeek R2, Qwen 3, and Llama 4. Tested on RTX 3090 across reasoning, coding, creative writing, and multilingual tasks. Real results, no marketing fluff.
Home AI Server Build Guide 2026: GPU Selection, Setup & Real Costs
Complete guide to building a home AI server for running LLMs locally. GPU comparison (RTX 4090 vs 3090 vs 4080), hardware selection, Ollama setup, cost analysis, and lessons learned from someone who actually built one.
더 보기
연구자를 위한 AI 어시스턴트 구축기: OpenClaw로 바이오인포매틱스 워크플로우 자동화하기
반복적인 프로테오믹스 분석 작업을 OpenClaw로 자동화하여 연구 효율성을 90% 이상 향상시킨 실제 경험담. DIA-NN 파이프라인 구축부터 바이오마커 데이터베이스 개발까지, 구체적인 구현 과정과 성과를 상세히 공개합니다.
WordPress에서 Next.js로 마이그레이션 — 속도 60배 개선
WordPress 블로그를 Next.js + MDX 기반으로 마이그레이션하면서 TTFB를 2.4초에서 40ms로 줄인 실전 경험을 공유합니다. 데이터 이전, SEO 유지, 리다이렉트 설정까지.
Mac mini 24/7 서버로 쓰기 — 전기세부터 세팅까지
Mac mini M4를 24시간 상시 서버로 운영하면서 알게 된 전기세, 발열, 네트워크 설정, 원격 접속 노하우를 공유합니다. 가성비 홈서버의 정석.
Securing Ollama with API Key Authentication Using Caddy Reverse Proxy
Ollama has no built-in authentication. Here's how I secured my public-facing Ollama API with Caddy reverse proxy and X-API-Key header validation — complete with Windows setup, CORS handling, and Vercel integration.
Ollama vs ChatGPT in 2026: Is Running AI Locally Worth It?
Honest comparison between Ollama (local LLM) and ChatGPT/Claude cloud APIs in 2026. Cost analysis, quality benchmarks, privacy, and real-world use cases from someone who uses both daily.
How to Run Qwen 3 (30B) Locally with Ollama on RTX 3090 — Complete Guide
Step-by-step guide to running Qwen 3 30B MoE model locally on an NVIDIA RTX 3090 (24GB VRAM) using Ollama. Includes performance benchmarks, port forwarding setup, and API authentication with Caddy reverse proxy.