目が覚めてから大体1時間ぐらいPCを付けてぼーっとしている時間がある

2025.06.27

Logging

おはようございます.昨日はデススト2の発売日でした、まだ購入はしていません.

『DEATH STRANDING 2: ON THE BEACH』 – ゲームプレイトレーラー

さて自分には目が覚めてから大体1時間ぐらいPCを付けてぼーっとしている時間がある、だいぶ前からだけど目が覚めてはいるけど、脳が回転していない時間帯があってその時間帯に何かしても頭に入ってこないので、ブログを書いたりXを見たりして早朝を過ごしている.

一時間ぐらい経過すると犬の散歩に連れて行く、そこで寝ぼけている脳が通常モードに切り替わる感じです.朝活している訳でもないだけども朝にタスクを消化している感じですね.

本なんかは朝食後、目を通したりしています.

リモートワークなので通勤がないので、朝食後から仕事までの時間を使えるのはメリットですね.こういう時間の使い道をリモートワークではない人が出来るようになるまでには、あと10年以上掛かると思います.

10年も経過すると自動運転車が普及しているようになると思うのでそれまではリモートワークの特権かと思います.

因みに自分は4時起きが基本です、寝るのもその分早いのです、7時間は睡眠時間に当てています.こういうリズムになったのは結構、犬の散歩という事柄が大きく影響しています.

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

あと, それ, タスク, デススト, ブログ, メリット, モード, よう, リズム, リモート, ワーク, 事柄, 仕事, 以上, 使い道, 回転, 基本, 大体, 影響, 感じ, 散歩, 早朝, 明日, 昨日, 時間, 普及, 朝食, 消化, 特権, 発売, 睡眠, 経過, 自分, 自動, 購入, 通勤, 通常, 運転,

Photo by Victor Dunn on Pexels.com

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.

2025.06.22

Logging

おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.

実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。


ローカルAI記事生成は、もはや夢物語じゃない

「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。

Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。


なぜLlama 3があなたのPCと相性抜群なのか?

Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。

  • 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
  • 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
  • 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
  • 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。

あなたのPCを「記事生成マシン」に変える秘訣

もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。

  1. 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
  2. プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
  3. 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。

あなたの創造性が、今、AIで加速する

かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。

とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.

ファインチューニングPythonコード

以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。

import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType

# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
    print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
    # GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
    # exit("GPUがないため終了します。")
else:
    print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")

# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます

print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")

# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_use_double_quant=True,
    bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
    bnb_4bit_compute_dtype=torch.bfloat16 
)

# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"

# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
    MODEL_NAME,
    quantization_config=bnb_config,
    device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
    trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")

# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")

# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます

print(f"データセットをロード中: {DATA_DIR}")

# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
    dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
    print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
    print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
    exit("データセットロード失敗。")

# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
    # Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
    # ここでは一般的な値として2048を設定しています。
    max_length = 2048 
    # truncate=Trueで最大長を超えるテキストを切り捨てます。
    return tokenizer(examples["text"], truncation=True, max_length=max_length)

# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
    tokenize_function,
    batched=True,
    num_proc=os.cpu_count(),
    remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")

# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
    r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
    lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
    target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
    bias="none", # バイアスを学習しない設定。
    lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
    task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)

# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。

# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます

# 学習の設定
training_args = TrainingArguments(
    output_dir=OUTPUT_DIR,
    num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
    per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
    gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
    optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
    save_steps=500, # 500ステップごとにモデルを保存します。
    logging_steps=100, # 100ステップごとにログを出力します。
    learning_rate=2e-4, # 学習率。
    fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
    max_steps=-1, # num_train_epochsに基づいて学習します。
    group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
    lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
    warmup_ratio=0.03, # ウォームアップ比率。
    report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)

# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
    model=model,
    train_dataset=tokenized_dataset["train"],
    args=training_args,
    data_collator=lambda data: {
        'input_ids': torch.stack([f['input_ids'] for f in data]),
        'attention_mask': torch.stack([f['attention_mask'] for f in data]),
        'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
    },
)

# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")

# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")

# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
#     MODEL_NAME,
#     quantization_config=bnb_config,
#     device_map="auto",
#     trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
#     outputs = peft_model.generate(
#         **inputs,
#         max_new_tokens=200, # 生成する新しいトークンの最大数
#         do_sample=True, # サンプリングによる生成を有効化
#         top_p=0.9, # Nucleusサンプリングの閾値
#         temperature=0.7, # 生成の多様性を制御する温度
#         eos_token_id=tokenizer.eos_token_id # 終了トークンID
#     )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

Photo by Brett Sayles on Pexels.com

映画、ムーンフォールを観ましたので感想を残しときます。

2022.07.31

Logging

おはようございます。朝方にかけてどしゃ降りになりましたね。

さて昨日、ムーンフォールを観ましたので感想を残しときます。この映画、月の真実を知った時にその想定を受け止めれるかどうかで、大きく観た印象が異なると思っています。予告で大体のストーリー展開は予測できると思いますので、予告を観て観たいか観たくないか決めるのも一つの手だと思います。

日本初上陸!SFディザスターパニック映画『ムーンフォール』| ティザー予告編
ムーンフォール予告

一番、評価が分かれ道になっているのは、やはり最後のオチになる所だと思います、自分はこういうの好きですよ。最後の最後のオチもニヤって感じになりましたからね。パニックアクションSFとしてはかなり王道で最初から最後で一貫して目を離せない作りにもなっていて良かったです。こういう映画は倍速モードでみても何も面白くないと思いますし、VR等を使用してなるべく大画面で観ることをオススメします。

まとめ、自分はこういうSF映画好きです。尚、このムーンフォールは今のところAz独占だと思います。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

SF, Vr, アクション, おすすめ, オチ, かなり, こと, ストーリー, どしゃ降り, ニヤ, パニック, フォール, ムーン, モード, , 一つ, 一貫, 予告, 予測, , 作り, 使用, 倍速, 分かれ道, 印象, 大体, 展開, 想定, 感想, , , 映画, 昨日, , 最初, 最後, , 朝方, 王道, 画面, , 真実, , 自分, 評価,

Photo by Isaque Pereira on Pexels.com

先日のau通信障害。今も続いていたら悲惨だな。

2022.07.05

Logging

おはようございます。通信障害は改善されたでしょうか。

復旧されていない場合もこのまま投稿タイトルで、記載していきます。因みに通信障害一日目の夜に夜な夜なデスクトップに向かって一週間分の予約投稿記事を書いていたりします。この記事は火曜日に投稿される予定です。

さて、先日のau通信障害ですが一応、不便なく電子決済とかお昼は出来たので助かりましたが夕方、仕事帰りに試しに機内モードをOFFONしてみたところ、繋がらない状態になりました。これでやっと不便だなって感じましたが、そもそも今日は土曜日出社だったので直行帰宅。

因みにこういう時の為に、オフラインデータ等を自分は保持しているので其処ら辺は大丈夫でしたが、やはり電子決済出来ないのは不便。今まで何時もお金を入れていない状態でしたので、これで何かあると大変だなってヒシヒシと感じました。ある一定の金額は財布にも入れておくべきですね。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

au, OFFON, オフライン, お昼, お金, このまま, これ, タイトル, データ, デスクトップ, ところ, モード, , 一定, 不便, 予定, 予約, , 今日, 仕事, 保持, 先日, 其処ら, 出社, 土曜日, 場合, 夕方, , 大変, 帰宅, 復旧, 悲惨, 投稿, 改善, , 機内, 決済, 火曜日, , 状態, 直行, 自分, 記事, 記載, 財布, , 通信, 金額, 障害, 電子,

Photo by Louis on Pexels.com

千年女優という映画を倍速モードで観ました。つま・・・なかった。

2022.06.10

Logging

おはようございます。PGフリーランスの案件は結構高額が多い訳はお国が20%ピンハネするからです?

課税される所得金額税率控除額
195万円以下5%0円
195万円超330万円以下10%97,500円
330万円超695万円以下20%42万7,500円
695万円超900万円以下23%63万6,000円
900万円超1,800万円以下33%153万6,000円
1,800万円超4,000万円以下40%279万6,000円
4,000万円超45%479万6,000円

先日、千年女優という映画が面白いという評判をRSSで目にしてNetflixで見てみたのですが、あまりにも昭和レトロなアニメで途中から倍速モードというか飛ばし飛ばし観ました。

千年女優 特報

結局のところ、面白いと思わなかったです🙇、因みに「トップガン」の最新作を観て全然面白いと感じなかったので普通の人の感性と少しずれがあるのかもしれないです🤔。

これを観るだったら「パプリカ」をオススメします。あちらの方が断然、前衛的(アバンギャルド)だったと思います、因みに監督は千年女優と同じ監督(今 敏)さんだったと思います。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

0, 000, , 10, 153, 195, 20, 23, 279, 33, 330, 4, 40, 42, 45, 479, 5, 500, 6, 63, 695, 7, 800, 900, 97, Netflix, PG, RSS, アニメ, これ, つま, ところ, トップガン, ピンはね, フリー, モード, ランス, レトロ, , , 倍速, 先日, , , 女優, 少し, 感性, 所得, 控除, 映画, 昭和, 普通, 最新作, 案件, , 税率, 結局, , 評判, 課税, 途中, 金額, 高額,

ストリートファイターVを購入しましたよ。1990円で?

2022.05.27

Logging

おはようございます。

先日の日曜日の朝、Twitterのタイムライン、通称TLにストリートファイターVが1990円で購入できるよというものが流れてきたので、Steamで購入しました。いま、Steamではpaypay決済も出来るようになっているのですね。いやはやなんとも便利になったなって感じでストリートファイターVをポチりました。

『ストリートファイターV』SPECIAL TRAILER 16 Launch Characters

内容は云わずと知れたストリートファイターVなので割愛しますが、テトリス以上に時間の合間に出来るので良い感じですよね。自分は不器用なのでプロゲーマーなどは目指しませんが、楽しみたいと思っています。

『ストリートファイターV』2022年3月タイトルアップデート紹介トレーラー

ストリートファイターを久々に遊んで、何かストレス発散になるなぁってちょっとした感覚を覚えました。ストレスが溜まっている人はイージーモードでコンピューターをボコボコにしてストレス発散してみてくださいな。1990円でストレス発散出来るって結構お手軽感がありますよ。

因みに新作ストリートファイター6の予告されています!!。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

1990, Paypay, STEAM, tL, Twitter, イージー, いま, ゲーマー, コンピューター, ストリート, ストレス, タイムライン, テトリス, ファイター, プロ, ボコボコ, ぽち, モード, もの, りま, 不器用, 久々, , 便利, 先日, 内容, 割愛, 合間, , 感じ, 感覚, 日曜日, 時間, , 決済, 発散, 自分, 購入, 通称,

英字配列のキーボードに鞍替えしました。それとネットフリックスも。

2021.12.14

Logging

今までエレコムのキーボードを使用していたのです、安い割には打ちやすいキーボードでしたが一つ難点といえば、マウス操作時にキーボードにマウスがよくあたるという問題がありました。その問題が結構嫌だったので、思い切って英字配列のコンパクトなキーボードに変更しました。

カチカチと打鍵音はするものの職場ではないので、別に良いかなと思っています。唯、カチカチの打鍵音は気になる人は気になるレベルを遥かに超えています。なので静音のキーボードで購入するほうが良いかもしれません。

自分は少し気になるものの、今はこれで我慢します。仕事が決まれば新しいキーボードを購入するつもりでいます。

あと英字配列のキーボードに変える事にしたもう一つの理由はプログラミングする時に;:や{}などが|打ちやすいという事があげられます。これを解消するにはWindowsのキーボード設定を英字配列のモードに変えるだけで良いのですが自分の場合、英字配列のキーボードの配置を覚えていないので英字配列のキーボードを購入して覚えようと思ったのが2つ目の購入理由です。

話変わってネットフリックスを復活させました、来年の2月ぐらいまでは有料会員でいようと思います、その後、どうするかは考え中ですが・・・?。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

{}, Windows, エレコム, キーボード, これ, コンパクト, それ, つもり, ネットフリックス, プログラミング, マウス, モード, もう一つ, もの, レベル, 一つ, , , , 仕事, 使用, , 問題, 場合, 変更, 少し, 我慢, 打鍵, 操作, , , 理由, 職場, 自分, 英字, 解消, 設定, 購入, 配列, 難点, 静音, 鞍替え,

wifi中継機とルーターのブリッジモードの違いを知らずに散財した過去?

2021.08.09

Logging

髪の毛がたいぶ伸びてきて、うざく感じるようになってきたので来週には床屋さんに行きたいなと思っているのですが、何せ無収入?なので出費がヤダなと思っています。

さてwifi中継機とルーターのブリッジモードの違いを知らずに散財した過去?の話を書こうと思います。昔、ルーターのブリッジモードを使用しルーター同士をwifiで繋げれるだろうと思い、ルーターを二台購入し試してみた結果、駄目だったという切ない思い出があります。ブリッジモードは簡単に言えば親の通信を引き継ぐことが可能だけど優先LANケーブルで親と子を接続しないといけない、それとは違い中継機はDHCP機能もあったりする、wifi中継機の場合は当然、wifiで親とリンクしてインターネットに繋ぐことも可能だ。

要するにwifi中継機は一階に親のwifiがあり二階にwifi中継機があった場合などは長いLANケーブルを二階まで這わさず(はわさず)にインターネットの通信環境を整えることが出来るのだ。そこが中継機とブリッジモードの大きな違いでもある。あまり専門用語を使わずにwifi中継機とブリッジモードを話を書きましたが、分からない人はやはり専門の人に問い合わせすることをオススメします。

尚、wifi中継機などでA社やR社のショッピングで検索するといろいろは会社の中継機があるけど、なるべく新しい中継機を選ぶことをオススメします。その理由はセキュリティーがしっかりしているという事です。あと、購入後もファームウェアを最新の状態にするように説明書を読みながら設定することも大事になります。

【爆速】WiFi6ルーターを導入してみたら自宅マンションのネット回線が改善した話

因みにwifi6の機能があるwifiルーターを購入すると良いです、無線通信(wifi)が従来よりも早いらしいです。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

DHCP, LAN, wifi, イブ, インターネッ, インターネット, ガタ, ケーブル, こと, それ, ブリッジ, モード, リンク, ルーター, ワザ, , 中継機, , 使用, 優先, 出費, 収入, 可能, 同士, 場合, , 床屋, 思い出, 接続, 散財, , 来週, 機能, 簡単, 結果, , , 購入, 通信, 過去, 違い, 駄目, 髪の毛,

FF7Rがやっと。

2020.12.02

Logging

FINAL FANTASY VII REMAKE ファイナルトレーラー

FF7Rがやっとチャプター14に行き着きました。あと、もう少しでFF7Rの1stが終わろうとしています。来年にはFF7Rの1stのエンディング?が見えると思います。

FINAL FANTASY VII REMAKE オープニングムービートレーラー

まだFF7Rをプレイしていない方、プレイしてみようと思っている方はいちど、FF7Rをプレイしてみると良いかなと自分は思います。今まで積みゲーになってきたタイトルがかなりあるのに、何故かこのFF7Rだけは最後までプレイすることが出来そうな気がするタイトルです。

なので未だYOUTUBEでFF7Rのクリア動画は見ていません!!見たらやっぱ楽しみ半減しますからね。FF7Rの続編はあると思いますがまだまだ先の話になりそうですね。そのまえにFF16がプレイすることができそうなので良いのですが、FF7Rのようにクラッシックモードがあれば良いのになと思っています。

FINAL FANTASY XVI “AWAKENING”

FF16が発売されるときにはPS5は買っているかと思います、因みにもう公式サイトができているので、来年もしかしたら発売されるかもしれないなと思っています。

FFの開発が著しく落ちていた次期から、最近脱却したような記事をちょっと前に見かけました。今までデバッグ作業やテストプレイでバグが発売前などに見つかり発売の延期が何度か続いた次期があったのですが、AI、人工知能を活用することによりテストプレイはほぼ人工知能が24時間、デバッグできるようになり開発が順調に進むようになったんだとか。なのでこれからは結構発売の延期はなくなるのではないかなと思っています。

参考記事:
https://www.wantedly.com/companies/jp4/post_articles/247115?auto_login_flag=true#=

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

, 14, 16, 5, 7, FF, PS, st, youtube, いち, エンディング, かな, かなり, クラッシック, クリア, ゲー, こと, サイト, タイトル, チャプター, とき, プレイ, まえ, モード, , 公式, 動画, 半減, , 最後, 未だ, 来年, 楽しみ, , 発売, 続編, 自分, ,

FF7RのDEMOをプレイしてみて。

2020.03.03

Logging

FF7RのDEMOをプレイしてみて思った。これは期待以上の仕上がりです、凄すぎる映像がリアルです、そして戦闘シーンも超リアル感がある、クラシックモードでも楽しめるしこれはとても良い。今までの歴代ファイナルファンタジーの中でも群を抜いてダントツ1位の仕上がりです。開発にかなり時間がかかったのもわかるけど、この技術はこれからのFFに応用されるだろうから、これはリリースされる次期FFにもかなり期待ができると思います。最後に自分がシェアしたファイナルファンタジー7REMAKE(リメイク)の画像とファミ通さんのプレイ動画を載せときます。

https://twitter.com/zip358com/status/1234415518821441536
【ネタバレ注意】『FFVII リメイク』プレビュー動画その1 壱番魔晄炉潜入

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

, 7, demo, FF, REMAKE, かなり, クラシック, これ, シーン, シェア, ダントツ, ファイナルファンタジー, ファミ通, プレイ, モード, リアル, リメイク, リリース, , 動画, 応用, , 戦闘, 技術, 映像, 時間, 最後, 期待, 次期, 歴代, 画像, , 自分, 開発,

R-PlayアプリでPS4用リモートプレイが外出先でも出来ちゃう神アプリ!

2020.01.21

Logging

R-PlayアプリでPS4用リモートプレイが外出先でも出来ちゃう神アプリがios用にあります。これはとても良い感じがしますがセキュリティの事が心配という方は公式アプリが外出先に対応するまで待つかプレイステーションVITAを購入してそれを使いプレイする方が良いかと思います。

iphoneでPS4のゲームをしよう!!R-playの使い方とコントローラーの設定の仕方解説!!

ちなみに外出先からプレイするためにはDMZ(非武装地帯)の設定が必要になります(厳密にはポート開放じゃないだけどね)。そしてモデム兼ルーター機能のあるものにルーターを繋いでいる場合は、ルーターをブリッジモードに変更する必要があります。変更しすると今までIPアドレスが変わるため固定IPアドレスで設定していた機器は再設定が必要になります。ネットワークに詳しい人に設定してもらう事をオススメします。

たった3分で出来るポート開放!!実践編

尚、 R-Playアプリは有料アプリで1400円します、VITAを購入するよりは安いですよね。ちなみに中古のVITAは8000円?9000円します。ちなみに自分はこの神アプリを昨日、知りました。

【VITA×PS4リモートプレイ】外出先の無線Wi-Fiでリモートプレイが遊べるのか!?

R-PLAYアプリは下記を参照ください。

※注意:外出先で2時間40分ぐらいプレイすると1G(ギガ)ほど通信量が発生するそうですよ。使い放題のパケじゃないと厳しいかも気をつけましょう。

https://apps.apple.com/jp/app/r-play-ps4%E7%94%A8%E3%83%AA%E3%83%A2%E3%83%BC%E3%83%88%E3%83%97%E3%83%AC%E3%82%A4/id1222889057

追記:iosでもPSの純正アプリでリモートプレイ出来るようになりました。

https://www.playstation.com/ja-jp/remote-play/

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

1400, 4, DMZ, iOS, IP, PS, R-Play, VITA, アドレス, アプリ, おすすめ, これ, セキュリティ, それ, ため, ネットワーク, ブリッジ, プレイ, プレイステーション, ポート, モード, モデム, もの, リモート, ルーター, 中古, , , 公式, , 固定, 地帯, 場合, 変更, 外出, 対応, 心配, 必要, 感じ, , 有料, 機器, 機能, 武装, , , 設定, 購入, 開放,

指定時間になったら自動的に復帰(スリープ/休止状態)

2015.11.18

Logging

rtcwake -m mem -s 3600
rtcwake -m disk -s 3600
rtcwake -m mem -t $(date +%s -d "2015-11-18 06:30")

上記のコマンドで指定時間になったら自動的に復帰(スリープ/休止状態)する
事ができます。ちなみに3600とは3600秒(1時間後)という意味です。
menはスリープ状態を指し、diskはサスペンドを指します。
スリープ状態では電源ボタン等で指定時間内でも復帰が出来ますが
サスペンドモードでは電源ボタンを押してもパソコンは起動しないので
注意が必要です。
———————
自分はローカルサーバーを立ち上げているのですが
平日など自分が使わない時間帯などはスリープ状態にしています。
そうすることで、電気代の節約をしています。
ローカルサーバーと言っても使わない時間帯は余計な電力は
使いたくないですから(。>?<。)。
Ubuntuなどはこの方法ではうまく行かないと思います。
Ubuntuの事はあまり知らないので分からないのですが・・・・。
※リナックス(Linux)、CentOSの話です。

著者名  @taoka_toshiaki

※この記事は著者が30代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

```, -m, -s, -t, 06, , 11, 18, 2015, 30, 3600, D-, date, disk, mem, men, quot, rtcwake, こと, コマンド, サーバー, サスペンド, スリープ, パソコン, ボタン, モード, ローカル, 上記, , 休止, 余計, , 平日, 復帰, 必要, 意味, 指定, 時間, 注意, 状態, 節約, 自分, 起動, 電力, 電気, 電源,