数か月ごとに、ソフトウェアの費用が実際にどれくらい必要なのかを自問する必要があります。オープンソース アプリは、多くの有料ツールとの差を密かに縮めており、場合によっては、具体的かつ実践的な方法で商用アプリよりもさらに進んでいます。
今週末に少し時間があれば、まず試してみる価値のある 3 つのアプリを紹介します。それぞれがさまざまな種類の出費を削減するのに役立ちます。そのうちの少なくとも 1 つは、すでに支払っているものに関連している可能性があります。
これらのアプリはすべて、Linux、Windows、macOS 上で実行されます。
ハンドブレーキ
動画を再エンコードしてストレージの請求を削減します
HandBrake は、無料のオープンソースのビデオコンバータです。これを使用すると、フォーマット間でビデオ ファイルを変換したり、DVD や Blu-ray ディスクをリッピングしたり、より効率的なコーデックを使用してクリップを小さいサイズに圧縮したりできます。明らかにコスト削減は、Adobe Media Encoder や Wondershare UniConverter などの有料ツールをスキップすることで実現します。しかし、一部の人にとっては、HandBrake によって年間数百ドルを節約できる可能性があります。
たとえば、私はよく旅行しますが、旅行のたびに約 1 TB の生の映像を持って帰ってきます。年に 4 回の旅行ということは、年間約 4 TB のビデオを意味します。このタイプのストレージは、外付けハード ドライブを購入する場合でも、Google One や iCloud などのサービスを通じてクラウド ストレージの料金を支払う場合でも、すぐに増えてしまいます。
HandBrake が行うことは、そのビットを H.264 (ほとんどのカメラや携帯電話で使用されるデフォルト コーデック) から、大幅に効率的な H.265 (HEVC) に変換することです。私の経験では、この変換によりファイル サイズが約 75% 削減されます。そのため、毎年 4 TB の映像を保存する代わりに、ほぼ同じビジュアル品質を維持しながら、必要なのは約 1 TB だけです。これは、長期にわたるストレージ コストの削減に直接つながります。
高級
4K税の支払いをやめる
Upscayl は、完全にオフラインで動作する、無料のオープンソースの人工知能画像拡張機能です。ネイティブ AI モデルを使用して画像をアップスケールし、低解像度の画像をより鮮明で詳細に表示します。技術的には写真を最大 16 倍までアップスケールできますが、それを超えるとオブジェクトがより目立つようになるため、アプリ自体は 4 倍以下に抑えることを推奨しています。
Upscayl を使用することの明らかな経済的利点は、Topaz Gigapixel のような有料ツールを回避できることです。しかし、私のように大量の壁紙をダウンロードする人にとって、より実用的な使用例がここにあります。
おそらく、多くの壁紙サイトが 1080p の無料ダウンロードを提供していますが、4K バージョンは有料の壁でロックされていることにお気づきでしょう。ウルトラワイドモニターを使用している場合、高解像度の壁紙を見つけるのがすでに困難になっているため、これはさらにイライラさせられます。 Upscayl を使用すると、無料の 1080p バージョンをダウンロードして自分でアップグレードできます。結果は多くの場合、標準の画像サイズから得られる明らかなピクセルがなく、超大型モニターでもデスクトップでの使用には十分です。
人工知能画像を作成するのに便利な角度もあります。多くのプラットフォームでは、4K 画像の作成には 1080p 画像の作成よりもはるかに多くのクレジットがかかります。ただし、生の解像度自体ではなく、構成、照明、および迅速な結果に対して料金を支払う可能性があります。したがって、1080p で画像を作成し、それを Upscayl でアップロードする方が賢明なワークフローです。これにより、サブスクリプション クレジットをさらに拡張しながら、高解像度の画像を取得できるようになります。

MidJourney で思い通りのイメージを作成するための 6 つのヒント
ランダム性が低くなり、より驚くべきものになります。
ウルマ
LLM を利用した基本的な自動化を無料で実行
Ollama を使用すると、AI 言語モデルをハードウェア上でローカルに実行できます。つまり、定期的なサブスクリプションや API 料金は発生せず、データがコンピュータから流出する心配もありません。しかし、ChatGPT の後継者として Ulma にアプローチするほとんどの人は通常失望します。消費者向けハードウェアで実際に実行できるネイティブ モデルのほとんどは、これらのサービスの無料枠と比較しても、Cloud や ChatGPT ほどの機能はありません。
しかし、それも要点を外しています。ローカル LLM は、必ずしも汎用チャットボットとして機能する必要はありません。 Ulma が真に優れているのは自動化です。
Ollama は OpenAI の API 構造をエミュレートし、ネイティブ モデルを n8n などの自動化ツールに簡単に接続できるようにします。クラウド AI プロバイダーにリクエストごとに料金を支払う代わりに、これらのワークフローの多くをすべて自分のコンピューター上で実行できます。
たとえば、以前は、いくつかの個別のワークフローの OpenAI API クレジットに月額約 5 ~ 10 ドルを費やしていました。
-
Obsidian で文字起こしされた音声メモを構造化されたメモに変換する
-
音声コマンドから Google カレンダーのイベントを作成する
-
記事のスクリーンショットの解析と名前変更
-
領収書の写真を読み取り、予算スプレッドシートに入力します。
-
ホーム アシスタントに自然言語でコマンドを送信する
さて、これらのタスクはどれも境界線のインテリジェンスを必要とせず、Ollama を介して実行されているローカルの Qwen3.5 9B モデルにすべてをダウンロードすることができました。 4 ビット量子化を使用すると、12 GB の VRAM を搭載した NVIDIA GeForce RTX 3060 で 1 秒あたり約 20 ~ 30 のトークンを取得します。

Google と OpenAI は無料の API クレジットを提供していますが、落とし穴が 1 つあります
無料は決して本当に無料ではありませんよね?
これらの FOSS アプリは、コンピューターに GPU が搭載されている場合にさらに優れています。
これらの FOSS アプリを実行するために GPU は技術的には必要ありませんが、GPU の入手には大きな違いがあります。エンコード、スケーリング、推論が高速化されることがわかります。コンピュータに個別のグラフィックス カードが搭載されている場合は、ここにあるすべてを最大限に活用する準備がすでに整っています。