Photo by Victor Dunn on Pexels.com

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.

2025.06.22

Logging

おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.

実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。


ローカルAI記事生成は、もはや夢物語じゃない

「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。

Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。


なぜLlama 3があなたのPCと相性抜群なのか?

Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。

  • 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
  • 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
  • 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
  • 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。

あなたのPCを「記事生成マシン」に変える秘訣

もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。

  1. 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
  2. プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
  3. 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。

あなたの創造性が、今、AIで加速する

かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。

とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.

ファインチューニングPythonコード

以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。

import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType

# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
    print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
    # GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
    # exit("GPUがないため終了します。")
else:
    print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")

# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます

print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")

# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_use_double_quant=True,
    bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
    bnb_4bit_compute_dtype=torch.bfloat16 
)

# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"

# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
    MODEL_NAME,
    quantization_config=bnb_config,
    device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
    trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")

# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")

# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます

print(f"データセットをロード中: {DATA_DIR}")

# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
    dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
    print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
    print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
    exit("データセットロード失敗。")

# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
    # Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
    # ここでは一般的な値として2048を設定しています。
    max_length = 2048 
    # truncate=Trueで最大長を超えるテキストを切り捨てます。
    return tokenizer(examples["text"], truncation=True, max_length=max_length)

# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
    tokenize_function,
    batched=True,
    num_proc=os.cpu_count(),
    remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")

# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
    r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
    lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
    target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
    bias="none", # バイアスを学習しない設定。
    lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
    task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)

# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。

# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます

# 学習の設定
training_args = TrainingArguments(
    output_dir=OUTPUT_DIR,
    num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
    per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
    gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
    optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
    save_steps=500, # 500ステップごとにモデルを保存します。
    logging_steps=100, # 100ステップごとにログを出力します。
    learning_rate=2e-4, # 学習率。
    fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
    max_steps=-1, # num_train_epochsに基づいて学習します。
    group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
    lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
    warmup_ratio=0.03, # ウォームアップ比率。
    report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)

# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
    model=model,
    train_dataset=tokenized_dataset["train"],
    args=training_args,
    data_collator=lambda data: {
        'input_ids': torch.stack([f['input_ids'] for f in data]),
        'attention_mask': torch.stack([f['attention_mask'] for f in data]),
        'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
    },
)

# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")

# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")

# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
#     MODEL_NAME,
#     quantization_config=bnb_config,
#     device_map="auto",
#     trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
#     outputs = peft_model.generate(
#         **inputs,
#         max_new_tokens=200, # 生成する新しいトークンの最大数
#         do_sample=True, # サンプリングによる生成を有効化
#         top_p=0.9, # Nucleusサンプリングの閾値
#         temperature=0.7, # 生成の多様性を制御する温度
#         eos_token_id=tokenizer.eos_token_id # 終了トークンID
#     )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

映画、フロントラインを観てきました、ネタバレ無しの感想

2025.06.14

Logging

おはようございます、映画、フロントラインを観てきました、ネタバレ無しの感想を書いていきます.これは胸熱な物語でした観てよかったです、観たいなって思っている方は是非劇場に足を運んでください熱い思いがお釣りとして返ってきます.

映画『フロントライン』30秒予告|2025年6月13日(金)公開

後半あたりぐらいからすすり泣きが聞こえるぐらいの内容.自分も目頭熱くなるところが何度かありました.最近観た映画、国宝とフロントラインを比べることは難しいけど、フロントライン:真実に基づいた物語は万人に評価高い映画だと感じました.

日本的なので海外の人にはどう映るか分からないけど、何も言わずに結果を出している人は良いなって思いました.そしてコロナがおさまった、今、映画としてその物語が語られるところなんかが心打たれる話ですよね.

観てよかったです、ありがとうございました.

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

あたり, お釣り, こと, これ, コロナ, すすり泣き, ところ, ネタ, バレ, フロント, ライン, 内容, 劇場, 国宝, 後半, 思い, 感想, 日本, 明日, 映画, 是非, 最近, 海外, 無し, 物語, 目頭, 真実, 結果, 自分, 評価,

Noteは飽和しているのでなかなか難しそうですね.

2025.05.27

Logging

おはようございます.Noteに2記事書いてみたのだけどもアクセス数は一桁台でした、これからユーザーを増やして収益化に繋げる道のりは遠そうだと判断したので一時停止するつもりです.

そしてNoteはもう生成AIで書かれた記事が無数にあり、もう人の書いた記事にたどり着くのが難しそうな状態になっていますよね.

記事が無数にあるということは競争相手が多くて、利益が薄まる傾向にあるのである一定の収入を得たい人には向かないプラットホームになっているように思えます.

ではブログはどうかと言えば同じだと思うだけど、Noteと違うところと言えばブログでレンタルサーバーなどを借りて運用している人は、カスタマイズ出来るので個性的なページが作れたり他のSNSへの連携などもしやすいし、投げ銭を募ることも可能なので結果、ブログの方が良い気がしている.

AI検索時代になった場合、どうなるのかが自分は見通せていないけど、ひとつ言えることは後発は厳しいということです.

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

アクセス数, プラットホーム, ユーザー, レンタルサーバー, 一定, 一桁台, 傾向, 利益, 厳しい, 収入, 収益化, 後発, 投げ銭, 検索時代, 状態, 生成, 競争相手, 結果, 連携, 道のり,

高額スマホなので頑張らなくて綺麗に撮れるけど、高いなぁ(笑?

2025.04.14

Logging

おはようございます.先日、iphone16のPro高額スマホを購入しました.関税問題がなかったら買わなかったようなスマホです.なぜ、高いスマホを購入するかといえばそちらの方が最終的に長持ちするからです.昔は毎年のようにiphoneを買い替えていましたがある時から、スマホの進化を感じなくなり買い替えを辞めて今回8年ぐらい使っていたiphone XproMaxから買い替えた感じです.

結果、生成AIが動くiphone16にしたのだけど、本当だったらiphone17か18にしたかったというのが本音です、理由はiphone16は生成AIを搭載された最初の端末なので、これから生成AIが進化していく中で新しい生成AIはそのうち乗らなくなると思っているので.

でも生成AIが進化する事によって逆に最小の性能でも動くようになるのかも知れないという淡い期待も持ってもいます.

2025年4月12日 桜🌸

因みに、動画、写真はこのiphone16Proにしてとても綺麗に撮れるようになりました.頑張らなくても鮮明に撮れるのが良いですね.特にズームでも綺麗に撮れているのが高評価ですが、生成AIは今のところ使用していません.チャットGPTのアプリは入れているのでそれで今のところ十分な気がしています.

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

アプリ, うち, ズーム, スマホ, チャット, 性能, 新しい生成, , 最初, 最小, 本音, 毎年, 淡い期待, 生成, 結果, 進化, 関税問題, 高いスマホ, 高評価, 高額スマホ,

iphoneは16Proを購入するところまで行って辞めた話.

2025.04.09

Logging

おはようございます.iphoneは16Proを購入するところまで行って辞めた話を書いていきます.どうも関税の影響でiphoneが高騰する話が出てきています.そんな記事を読んだのでもうアイフォン16を購入しようと思ってAppleの公式サイトでポチる(購入ボタンを押せば買える)ところまで行って辞めました.

いろいろと考えた結果、いまの収入でこの高額なあいふぉんを購入しても使う機能は限らているし、そもそも自分はスマホをあまり触らないです.そう思うと今のアイフォンを使い倒せるまで使い倒したほうが良くないかという思いに至ったのでiphone17も買わないかもですね.

自分が使っているiosアプリが使用できなくなったら買い替えることにはなると思うけど、それはまだ先の話だと思っています.何故ならios18に対応しているのでios19に対応できなくても恐らく5年は使用できると思います.

なので、アイフォンはまだ購入しないと思います.収入UPしたとかあれば買い替える可能性はあるので思います止まりです.

今後、関税でアイフォンが馬鹿高い端末になればAndroidに変える可能性もあります.

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

アイフォン, アプリ, スマホ, ところ, 公式サイト, 収入, 可能性, , 影響, 機能, 結果, 自分, 記事, , 購入ボタン, 関税, 高い端末,

画像の存在有無確認用.NodeJSで動く一式を共有します😌.

2025.02.21

Logging

おはようございます.画像の存在有無確認用.NodeJSで動く一式を共有します😌.先日の朝ポストしたものの一式のファイルになります、URLはダミーです.また、このプログラムコードはあるKサイトの画像の存在有無確認のために作ったものになります.

https://github.com/taoka3/check-images-app

このプログラムコードをカスタマイズすることによって、404ページへリダイレクトするようなページでも画像の存在有無を確認することが可能になります.

因みにこのコードでは大量に画像存在有無を確認する場合には適していない為、修正が必要になります.どこを修正しないといけないかは、ご自身でコードを修正してお試しください.ヒントは同期処理を非同期処理にという事です.また、このコードでコンソールに結果を出力していますが、業務などで使用する場合はCSVなどに出力するのが適切なのかも知れません.

const { loadImage } = require("@napi-rs/canvas");

function checkImages(name,imageUrls)
{
  imageUrls.forEach(async (imgUrl) => {
    try {
      // canvasを使って画像が存在するか確認
      await loadImage(imgUrl); // 画像をロードして存在確認
      console.log(`name: ${name}, url: ${imgUrl}, exists: true`);
    } catch (error) {
      console.log(`name: ${name}, url: ${imgUrl} exists: false `);
    }
  });
}

プログラムコードは、朝にちゃちゃっと作ったものになります.なのでエレメントが無かったら落ちたりします.そういう欠陥はあるものの簡易的に画像の存在有無を確認したい場合などには役立つかと思います.

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

```, エレメント, コード, コンソール, ヒント, ファイル, プログラムコード, 一式, 修正, 同期処理, 存在有無, 存在有無確認, 存在有無確認用, 存在確認, , 業務, 欠陥, 画像存在有無, 結果, 非同期処理,

仕事がお休みの日だけお休みと表示する機能はアレなので….

2025.01.19

Logging

おはようございます.仕事がお休みの日だけお休みと表示する機能は近日中につけると記載しましたが当分、このままの状態で運用します.いろいろと考えた結果、あまりメリットはないかなと思ったのとXのポストが多いときは大体休みだと気づくだろうという思いもあり、わざわざそれを可視化してもあまり意味がないじゃないかなと.

そういう思いからスケジュール反映は当分、保留とさせて頂きます.スケジュールのコードを観たいなと思う方はスケジュールと検索からググって頂けたら表示されると思います.グーグルカレンダーの一部スケジュールを表示させたいと思う方は恐らく、企業さんぐらいじゃないのかと思います.

因みにグーグルカレンダーのAPIを叩きすぎると費用が発生するらしいので、そこらへんの事を考慮してコードを書く必要があります.因みに自分はクロンを使用して定期的にデータベースに保存する形にしました.

ググってと書きましたが一応リンクを貼っときます.

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

グーグルカレンダー, クロン, コード, スケジュール, スケジュール反映, そこらへん, データベース, メリット, リンク, わざわざそれ, 一部スケジュール, 休み, 保留, 可視化, 意味, 機能, 状態, 結果, 費用, 近日中,

ネットを一日使用せずに生活をしてみた.結果.

2024.10.04

Logging

おはようございます.休みの日にネットを一日使用せずに生活をしてみました.結果.とても空き時間が増えました.そういえば学生時代はこんな感じだったなと、ネットを見ない分テレビを見たり本を読んだりとすることが多くなりましたが、下記の動画のようにスマホをONにした途端、友達からLINE通知が飛んでくることもなかったので.

【スマホ断ち実験】19歳女子大生からスマホを半日取り上げたらどうなる?携帯すら捨てたウェブライターの〝豊かな暮らし〟とは?復活したのは自由な時間|#アベプラ《アベマで放送中》

二三日だったら、それほど困らない感じがします.ネットをしないことでわかったことは調べ物が瞬時にわかるということはどれほど楽なことだということと、日頃から情報を浴びている為か覚えていないということ.調べれば瞬時にわかるということは逆に言えば覚えるという行為をしないことだとも感じました.

明日へ続く.

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

LINE通知, ON, スマホ, ネット, 一日, 下記, 休み, 分テレビ, 動画, 友達, 学生時代, 情報, 日頃, , 生活, 瞬時, 空き時間, 結果, 行為, 調べ物,

室内から外へ出た際に目が痛くなる、または光に対して敏感になる傾向は、発達障害に関連するのか?

2024.09.17

Logging

おはようございます.室内から外へ出た際に目が痛くなる、または光に対して敏感になる傾向は、発達障害に関連するのか?と調べてみた結果.やっぱ関連するみたいです.

前々から室内から外へ出た時に太陽の光で目が痛くてなれるまで少し時間がかかるのです.特に真夏の太陽は痛い.いちばん、恐いのはトンネルから出たときにもそんな感じなのでこの頃はサングラスを付けています.

フォトフォビアかもしれないですけど、自分でも少し自閉スペクトラム症の傾向はあるなって思っている.俗に言うグレーゾーンにいるんじゃないかなって思っている.

因みに自分は勉強をあまりしないでも出来た方なのかも知れないけれども、コミュニケーション能力は劣っていた感じになり社会適合から言えばマイナスな人かなって思っている.

明日へ続く.

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

グレーゾーン, コミュニケーション能力, サングラス, トンネル, フォトフォビア, 傾向, , 前々, 勉強, , 太陽, 室内, 少し自閉スペクトラム症, 感じ, 発達障害, , 真夏, 社会適合, 結果, ,

トップページにアクセスカウント機能追加とあと一つ機能 #wordpress

2024.07.21

Logging

おはようございます.トップページにアクセスカウント機能追加とあと一つ機能を追加しました.あと一つは他の閲覧者が何の記事を見ているか表示する機能になります.ちなみに最初、プッシャーというモノを使用して構築していたんですが、レンタルサーバーの規約違反になりそうなので取りやめてJSで一分間隔でtxtファイルを見に行くように変更しました.

これだったら、レンタルサーバーに負荷はかからないだろうと言う事で実際に一日、試した結果、負荷は以前と変わらずでしたので良かったです.

作っていて分かったことはロボット巡回が多い...ボットはブロックするように処理を行ったのですが、ヘッドレスブラウザなどで巡回してくるボットには対応出来ていないのが現状です.正直なところ見分けがつかない.

is_robots() //wp

これは今後の課題になりそうですが、当分は放置です.

明日へ続く.

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

is_robots, JS, txtファイル, wp, アクセスカウント機能追加, ところ見分け, プッシャー, ヘッドレスブラウザ, ボット, レンタルサーバー, ロボット巡回, 一分間隔, 処理, 放置, 最初, 現状, 結果, 規約違反, 課題, 負荷,

php7.4から使用できるようになったアロー関数.

2024.06.01

Logging

おはようございます、php7.4から使用できるようになったアロー関数のことを記載しますと言っても書き方はこんな感じで結果は9になりますということしか言えない.

<?php
$a = fn($x,$y) => $x*$y;
var_dump($a(3,3));
<?php
$a = (fn($x,$y) => $x*$y)(3,3);
var_dump($a);

ちなみにカッコで包んで即時関数?にすることも出来ます.この方法の方がjavascript様な書き方なのかも知れないなって思います.そんなアロー関数ですが、あまり使用している方を見かけないですね.コードを書くときは無名関数で書くことが多い気がします.

無名関数が関数になってしまうようなコード量だったら関数にしてしまう方が良いのかも知れませんが、そのコードの内だけで使用するものなら関数にしなくても良い気もしますが、これはレビューする人によって違う気がしますので現場によりかけりだと思います😌.

なお、アロー関数はコールバック関数としても使用可能です📝.

明日へ続く.

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

-y, A`, fn, javascript様, lt, php, var_dump, X, アロー関数, かっこ, コード, コード量, コールバック関数, , 即時関数, 書き方, 無名関数, 現場, 結果, 関数,

pythonとさくらレンタルサーバー

2024.05.12

Logging

おはようございます、さくらレンタルサーバーでMecabというライブラリが使えないかと試みた結果、使用できましたので、そのご報告です.なお、さくらレンタルサーバーでpipを動かす方法はググってください.pipが導入できたら次のコマンドよりインストールが出来ます.

pip install mecab

最初、mecab-python3をインストールを試みましたがこれはどうもさくらレンタルサーバーでは導入出来なさそうです.インストール先をオプションで変えれば出来るかも知れませんけど自分は辞めました.

pip install mecab-python3

mecabライブラリをインストールすることにより、今までAPIを頼っていた部分をmecabライブラリに置き換えが出来ました.これは自分にとって結構経費削減になります.少しでも月々の引き落としを減らせるところは減らしたいと思っているので.

明日へ続く.

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

API, Mecab, mecab-python3, mecabライブラリ, pip, pip install mecab, pip install mecab-python3, インストール, インストール先, オプション, コマンド, さくらレンタルサーバー, ライブラリ, 少し, 最初, 月々, , 経費削減, 結果, 部分,

ゆめみからの挑戦状 ★第5弾をいまごろトライする

2024.05.05

Logging

おはようございます.株式会社ゆめみさんからの挑戦状を受けてみました、結果あんがい簡単に解けてしまったので自分でもびっくりこれで良いだろうかってポストしてみました.

自分の解はQiitaと上記の画像(途切れていますが)になります.どちらも同じ内容です.

因みに何か他人の解を見たわけではないので、これが最適解かどうかはわかりません.もっとシンプルで且つ綺麗なコードはあると思います.人の数だけコードはありますからね😌.

明日へ続く.

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

qiita, コード, びっくりこれ, 上記, , 他人, 内容, 挑戦状, , 最適解, 株式会社ゆめみさん, 画像, 結果, 自分, ,

Photo by Rodolfo Clix on Pexels.com

円安が止まりませんw.155円、156円、160円

2024.05.04

Logging

おはようございます.円安が進みます?これを書いているのは1週間前の話になるので、どこまで円安なるのだろうか?円買しても焼け石に水な気がしてならない。根本的、経済を建て直さないと何も良くならない話ではなかろうかと.....

dollar-currency-money-us-dollar-47344.jpeg
Photo by Pixabay on Pexels.com

日本経済がいまかなり苦境に来ているのは間違い無さそう、だからといっていきなり回復するかと言えばそんな話でもないと思います.5年、10年先にいま行ったことの結果が出てくるわけで直ぐに効果が現れる訳ではないですよね.どうなるのだろう日本経済!?

明日へ続く.

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

10年先, 1週間前, 5年, Photo by Pixabay on Pexels.com, かなり苦境, 円安, 効果, 日本経済, , 焼け石, 経済, 結果, , ,

Photo by Anete Lusina on Pexels.com

アウトプット

2024.04.14

Logging

おはようございます、自分のX(旧Twitter)アカウント@taoka_toshiakiでは大体、早朝にIT記事などをアウトプットしていました.いままで、毎日のようにアウトプットしてきていたのを4日間、停止してみました.

アウトプットする方が頭に定着する?それとも何もしないで記事を読む.さてどちらの方が頭に少しでも定着するのかと思ったのがきっかけでした.結果はアウトプットした方が良いと論者が言われている通り何もしないより頭の片隅に残る率は高い気がします.

person taking white paper from folder
Photo by Anete Lusina on Pexels.com

一番は記事を読み、自分なりに何かにまとめるという行為を行い、プラスその記事をシェアするという事を行えばもっと頭に定着するようです.頭に定着させるには泥臭いようですが反復して頭に叩きこむ作業が必要らしいです.

自分もソフト老害とか言われる年になってきました、老化していく脳を活性化させるには日々新鮮な情報を仕入れるという事が大事になってくるのかもしれませんね.

明日へ続く.

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

IT記事, Photo by Anete Lusina on Pexels.com, X, アカウント@taoka_toshiaki, きっかけ, ソフト老害, 作業, , 日々, 旧Twitter, 早朝, 活性化, 片隅, , 結果, , 行為, 論者, 通り, ,

FFリバースやってみた。

2024.03.10

Logging

おはようございます、FFリメイクのユフィ版を攻略してプレイしようかなって思っていましたが発売日になって欲が出てきましたので、少しプレイしてみました。プレイしてみた結果、オープンワールドが凄い良いです。これには希望しか生まれない気がします。

ファイナルファンタジー7を高校生だったか中学生だったか忘れましたが、その時の衝撃とワクワク感を思い出す映像だなって思い良いですね~。

ボリュームも結構ありそうです、かなりやり込める内容になっていると思います、リバースでここまで作り込まれているとすると完結版となる次回作って一体どんな感じになっているのか、はたまたこれをクリアした時点でゲームは完結してたりして…と今からいろいろと考えてしまいますね。

因みに自分は体験版も予告もあまり見ないようにしてリリースしたものをプレイした感想です、体験版は本当はプレイしたかったのですが、それをしてしまうと新鮮さを失ってしまうと思って避けました。

結果的に体験版を避けて正解だったと思います。

さて、どうしようかなユフィ版をクリアするの…。w

明日へ続く。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

FFリメイク, , オープンワールド, かなり, ゲーム, ファイナルファンタジー7, ボリューム, ユフィ版, リバース, ワクワク感, 中学生, 予告, 完結版, 感想, 映像, 時点, 次回, , 結果, 衝撃,

Photo by Chris G on Pexels.com

運ゲーと丁寧。

2024.03.01

Logging

おはようございます、この人の言っていることは分かるなって思います。なんか分かる。自分はヒットメーカーでも何か業を成し遂げたわけではないけれど、好きなことで生きて行けているのもそれなりに運だと思います。

shallow focus photography of green grasses during daytime
Photo by FOX on Pexels.com
超有能と名高い『ジャンプ+』編集者に“ヒットの法則”をきいてみたが…

『変わりやすい時代』に丁寧に丁寧を突いてきたから出来たのかもしれない。成功事例のコピーは出来ない同じことをやっても同じ結果にはならないなど分かります😌。正解や最短解を求めようとしている時代だけど貪欲に突き詰めていくことが大事だと思いますね。

これを見て「あぁー」改めようと感じました。

明日へ続く。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

Photo by FOX on Pexels.com, コピー, ヒットメーカー, , 成功事例, 時代, 最短解, , 正解, 結果, 自分, ,

バッド・ランズを観ました。

2024.01.13

Logging

おはようございます、大晦日にバッドランズを観ました。全然良かったんだけどヤバいなとも思った作品です。バッドランズとは悪地(住みにくい良くない土地)という意味だとか、映画を観ていると何となくだけども、その意味する所が分かる気がする。

環境が人を作るというのが正しいのか分からないけれども、少なからず環境が起因することはあると思います。そういう事を考えながら観ているとちょっと疲れはするものの、どういう結果で終わるのかと思うとやっぱり最後まで観てしまう映画でした。

◤本予告◢ 9/29(金)公開 映画『BAD LANDS バッド・ランズ』

明日へ続く。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

バッドランズ, , 作品, 土地, 大晦日, 悪地, 意味, , 映画, 最後, , 環境, 結果,

Photo by Brett Sayles on Pexels.com

才能と努力。好きこそものの上手なれ。

2023.12.13

Logging

おはようございます、SHOW-GOさんのビートボックスは凄いのと声も良い。才能ある人が努力するとこういう結果になるのだなって思えました。好きこそものの上手なれって最初は身近な人から褒められたりすることから始まる気がします。あとは、そこがきっかけで努力して自分の能力が伸ばせる人なんだと。

SHOW-GO – Trial And Error (Beatbox)

どんなに声が良くてもそれが良いねって自分から気付くのは難しい、人から良いねって言われたりしないと才能が開花せずに一生を違う仕事をしてしまうこともあると思うですね。なので、やっぱきっかけってのは運命的なものなんだと思っています。

pink petaled flowers closeup photo
Photo by Brett Sayles on Pexels.com

話変わってドワンゴの社長さん、川上さんの声ってビートたけしに何か声が似ている気がします、本当、どうでも良い話なんだけどもにている気がします。

という訳で才能と努力は両方とも大事な気がします。

明日へ続く。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

Photo by Brett Sayles on Pexels.com, SHOW-GOさん, きっかけ, ドワンゴ, ビートたけし, ビートボックス, 一生, 両方, 仕事, 努力, , 川上さん, 才能, 最初, 社長さん, 結果, 能力, 良い話, , ,

IQテストにはムラがある。105‐121

2023.09.24

Logging

おはようございます、今までIQテストを行ってきてIQテストにはムラがあるなと感じました。自分が慣れてきたというのもあるけれど、試験を受ける時間帯によってムラがあるなと思います。一番スコアが高かったIQ121のスコアや115のスコアは早朝に試験を受けたときです。

逆に105は夜に試験を受けた結果です、自分は夜型ではないようです、朝型の可能性が高いですね(・・;)。ちなみに朝と言っても陽も出ていない時間帯ですけど・・・どちらかと言えば深夜に分類されそうな気がします。

勉強は全然できないのですが、関係性に気づきやすい人はIQテスト得意そう。向いている気がします。自分は自信の無さからいろいろなIQテストを受けてきましたが、この頃、大丈夫そうという気持ちが少し芽生えてきましたが、自信過剰にならずこれからも、初心忘るべからずでIQテスト頑張っていこうと思います。「えっ違う・・・!!」

最後にIQテストを受けたい人はメンサのテストからお試しで受けてみてはどうでしょうか?

https://www.mensa.org/public/mensa-iq-challenge

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

IQ121, IQテスト, スコア, テスト, むら, メンサ, 一番スコア, 初心忘るべ, 勉強, , 早朝, 最後, , 朝型, 深夜, 無さ, 結果, 自信, 試験, ,

牛乳を買ってきて。卵があったら3つお願い。

2023.08.28

Logging

おはようございます、エンジニアの皆さま。牛乳3つ買ってくるタイプですね(・・;)。この質問をchatGPTとBardにもしてみましたが、卵を3つ買ってくる人達でした、なんか人間に近い要素をもっているようにも思えて、あぁ凄いなぁと関心してしまいました。こういう会話をしてくれるから、自我が芽生えたと思う人も多くいると思います。実際、犬猫にも自我が存在するので本当に人工知能にも自我が芽生えたとしても不思議ではないじゃないのかと自分は思っています。

以下がBardさんと「牛乳を買ってきて。卵があったら3つお願い♥」やり取りした結果になります💁。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

Bard, Bardさん, ChatGPT, エンジニア, 人工知能, 人達, 人間, 以下, 会話, , 実際, 牛乳, 牛乳3つ, 犬猫, 皆さま, 結果, 自分, 自我, 質問, 近い要素,

Photo by Nothing Ahead on Pexels.com

GさんのBardが進化してchatGPTに寄せてきた。#価値

2023.07.17

Logging

おはようございます、GさんのBardが進化してchatGPTに寄せてきた。これで十分使えるレベルになってきたと思います。後出しジャンケンでもしかしたらBardに軍配が上がる可能性があります。やはり検索というものを抑えている巨人は強いかもしれない。でも、これからどうやって収益化するかがとても重要になってくるだろうと思います。

今は無料で使用できているけど、そのうち広告が付くのかなと思います。そうでないとサーバー代などの莫大なコストを産み続ける事になるわけですからね。因みにBardとchatGPTを比べた結果、僅差でchatGPTの方が少し精度が良い気がしますが、それも時間の問題かと思います。なので、最終的に何種類かの生成AIを使い分けていくようになると思います。

How Bard works | Responsible approach to AI

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

Bard, ChatGPT, Gさん, うち広告, コスト, サーバー代, ジャンケン, 何種類, 僅差, 収益化, 可能性, 問題, 少し精度, 巨人, 検索, 無料, 生成AI, 結果, 良い気, 軍配,

巨人Gさんの大規模言語モデルBardをトライしてみた。

2023.04.27

Logging

おはようございます、先日の朝にGさんからメールが来てたので巨人Gさんの大規模言語モデルBardをトライしてみた。試してみた結果ですが、忖度なしでいうとchatGPTの方が性能良くないかなと思うところがかなりありました。まず、日本語に対応していないのが難です、試しに英語でLaravelの非同期処理を書いてと問い合わせを行ったところ、レスポンスはかなり良いのですが手順が抜けているところがあり、そのままでは非同期処理が走らせないなと思いました。chatGPTに同じ質問を投げるとartisanのmakeから手順を書いてくれるのだけど、そういうのが無かったです。

後は、スレッド形式じゃないところが困りものです、そういう意味でもchatGPTに軍配が上がります、なんだか、もう少しGさんには頑張って貰いたいです。Gさんなら出来そうなことをことごとくしていない気がします。まだ、リリースされていないので何とも言えないですが、これでは検索シェアをchatGPTに奪われそうな気がします。Gさん好きなのでGさんの本気を見てみたい気がします。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

artisan, ChatGPT, Gさん, Laravel, Make, スレッド形式, レスポンス, 大規模言語モデルBard, 少しGさん, 巨人Gさん, 忖度, 性能, 手順, , 本気, 検索シェア, 結果, 英語, 軍配, 非同期処理,

爆発的に広がるGPT4≒一般に認知するということ。

2023.03.28

Logging

おはようございます、一昨日の続きを書きます。まだGPTで何が出来るのか一般人は知らないひとが多いけど、時間の問題かなって思います。これから「あっ」これAIに置き換えるじゃないという事が結構出てくると思っています。

【新時代の賢人会議②】AI時代に消える仕事、生まれる仕事/若者は「不満」ではなく「不安」で辞める/AI時代に消える「会社」/AI時代の教師のあり方/ツールありすぎる問題

そして、ホワイトカラーが労働へ流れていくということも有り得る話だと思っていてそうなると、今まで雇用されていた人材が解雇される可能性も出てくるかもしれない。そして、今まで外部に委託してきた仕事を外部に委託しなくなるかもしれない。そういう事が世界中で起きてくるじゃないのかとヒシヒシとGPT-4に触れていると思います。

GPT-4のお陰で検索を使う頻度が下がっている。でも、GPTもBardもそうだけど、検索サイトから引っ張ってきたデータなどを使用して結果を表示しているので、今は広告などは流れていないけど使用する前に一回、CMを流したりするようになるだと思います。そして、人工知能に引用された記事は報酬を得ることが出来るようになる時代が来るじゃないかな。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

AI, Bard, CM, GPT, GPT-4, お陰, データ, ひと, ホワイトカラー, 一昨日, 人工知能, 人材, 労働, 問題, 報酬, 外部, 広告, 時代, 結果, 頻度,

Photo by Pixabay on Pexels.com

映画、Mr.ノーバディを字幕で観ました。 #アマプラ

2022.12.22

Logging

おはようございます、先日の日曜日は雪がチラリと降りましたよね☃。

そんな中、映画、Mr.ノーバディを字幕で観ました。結果が分かっているけど過程が痛快さがあり最後まで見応えたっぷりな映画でした。どちらかと言えば映画、ジョン・ウィックに似ている感じがしますが、こちらの方が自分は好きですね。

荒くれ男どもが手首のタトゥーに恐れをなす!この男の正体は!? 映画『Mr.ノーバディ』本編映像

ジョン・ウィックより痛快さがあるし、これシリーズになっても楽しい気がします。ただ、俳優の年齢を考えると中々、シリーズ化は難しいものが有るのかも知れません。

アマゾンプライムの会員さんだったら、無料で見れるので痛快な映画を観てスカッとした気持ちになりたい方はお勧めです。こういう映画は何も考えずに観ることをオススメします。色々と考え出すと面白さが半減しますからね。

お笑い芸人が実は賢い人が多いという事を考え出すのと同じです🙄。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

Mr.ノーバディ, アマゾンプライム, お笑い芸人, ジョン・ウィック, シリーズ化, 会員さん, 俳優, 字幕, 年齢, 日曜日, 映画, 最後, 楽しい気, 気持ち, 結果, 見応え, 賢い人, 過程, 難しいもの, ,